Odkryto Krytyczną Lukę Bezpieczeństwa w Ramach Sztucznej Inteligencji Meta

Image by standret, from Freepik

Odkryto Krytyczną Lukę Bezpieczeństwa w Ramach Sztucznej Inteligencji Meta

Przeczytasz w: 3 min

Została zidentyfikowana poważna luka bezpieczeństwa, CVE-2024-50050, w otwartoźródłowym frameworku Meta dla generatywnej sztucznej inteligencji, znanym jako Llama Stack.

Spieszysz się? Oto najważniejsze fakty!

  • Podatność, CVE-2024-50050, pozwala na zdalne wykonywanie kodu poprzez niezaufane dane deserializowane.
  • Meta załatała ten problem w wersji 0.0.41, implementując bezpieczniejszy JSON Pydantic.
  • Podatność otrzymała 9.3 punktów (krytyczne) na skali CVSS 4.0 ze względu na możliwość jej wykorzystania.

Błąd, ujawniony przez zespół badawczy Oligo, mógłby pozwolić atakującym na zdalne wykonanie złośliwego kodu na serwerach korzystających z frameworku. Podatność, spowodowana niebezpiecznym obsługiwaniem zserializowanych danych, podkreśla trwające wyzwania związane z zabezpieczaniem narzędzi do tworzenia AI.

Stos Llamy, wprowadzony przez Meta w lipcu 2024 roku, wspiera rozwój i wdrożenie aplikacji AI opartych na modelach Llama stworzonych przez Meta. Zespół badawczy wyjaśnia, że wada tkwi w domyślnym serwerze, który używa biblioteki pyzmq Pythona do obsługi danych.

Konkretna metoda, recv_pyobj, automatycznie przetwarza dane za pomocą niebezpiecznego modułu pickle Pythona. Daje to możliwość atakującym na wysyłanie szkodliwych danych, które uruchamiają nieautoryzowany kod. Badacze twierdzą, że kiedy są one wystawione na sieć, serwery działające w domyślnej konfiguracji stają się podatne na zdalne wykonywanie kodu (RCE).

Takie ataki mogą prowadzić do kradzieży zasobów, naruszeń bezpieczeństwa danych, lub nieautoryzowanego przejęcia kontroli nad systemami AI. Podatność ta otrzymała krytyczną ocenę CVSS wynoszącą 9.3 (na 10) od firmy zajmującej się bezpieczeństwem Snyk, chociaż Meta oceniła ją na średnim poziomie 6.3, jak podaje Oligo.

Badacze z Oligo odkryli tę wadę podczas analizy otwartych frameworków AI. Pomimo gwałtownego wzrostu popularności Stack Llama – przeszedł z 200 gwiazdek na GitHubie do ponad 6000 w ciągu kilku miesięcy – zespół zasygnalizował ryzykowne użycie pickle do deserializacji, co jest częstą przyczyną podatności na RCE.

Aby wykorzystać lukę, napastnicy mogli skanować otwarte porty, wysyłać złośliwe obiekty do serwera i wywoływać wykonanie kodu podczas deserializacji. Domyślna implementacja Meta dla serwera inferencyjnego Llama Stack okazała się szczególnie podatna.

Meta szybko poradziła sobie z problemem po ujawnieniu go przez Oligo we wrześniu 2024 roku. Do października wydano łatkę, zastępującą niebezpieczną deserializację opartą na pickle bezpieczniejszą, walidującą typ implementacją JSON za pomocą biblioteki Pydantic. Użytkowników zachęca się do uaktualnienia do wersji Llama Stack 0.0.41 lub wyższej, aby zabezpieczyć swoje systemy.

Twórcy pyzmq, biblioteki używanej w Llama Stack, zaktualizowali również swoją dokumentację, ostrzegając przed używaniem recv_pyobj z niezaufanymi danymi.

Ten incydent podkreśla ryzyko związane z korzystaniem z niebezpiecznych metod serializacji w oprogramowaniu. Deweloperzy są zachęcani do korzystania z bezpieczniejszych alternatyw i regularnej aktualizacji bibliotek, aby łagodzić podatności. Dla narzędzi AI, takich jak Llama Stack, solidne środki bezpieczeństwa pozostają niezbędne, ponieważ te ramy nadal napędzają kluczowe aplikacje przedsiębiorstw.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...