Odkryto Krytyczną Lukę Bezpieczeństwa w Ramach Sztucznej Inteligencji Meta
Została zidentyfikowana poważna luka bezpieczeństwa, CVE-2024-50050, w otwartoźródłowym frameworku Meta dla generatywnej sztucznej inteligencji, znanym jako Llama Stack.
Spieszysz się? Oto najważniejsze fakty!
- Podatność, CVE-2024-50050, pozwala na zdalne wykonywanie kodu poprzez niezaufane dane deserializowane.
- Meta załatała ten problem w wersji 0.0.41, implementując bezpieczniejszy JSON Pydantic.
- Podatność otrzymała 9.3 punktów (krytyczne) na skali CVSS 4.0 ze względu na możliwość jej wykorzystania.
Błąd, ujawniony przez zespół badawczy Oligo, mógłby pozwolić atakującym na zdalne wykonanie złośliwego kodu na serwerach korzystających z frameworku. Podatność, spowodowana niebezpiecznym obsługiwaniem zserializowanych danych, podkreśla trwające wyzwania związane z zabezpieczaniem narzędzi do tworzenia AI.
Stos Llamy, wprowadzony przez Meta w lipcu 2024 roku, wspiera rozwój i wdrożenie aplikacji AI opartych na modelach Llama stworzonych przez Meta. Zespół badawczy wyjaśnia, że wada tkwi w domyślnym serwerze, który używa biblioteki pyzmq Pythona do obsługi danych.
Konkretna metoda, recv_pyobj, automatycznie przetwarza dane za pomocą niebezpiecznego modułu pickle Pythona. Daje to możliwość atakującym na wysyłanie szkodliwych danych, które uruchamiają nieautoryzowany kod. Badacze twierdzą, że kiedy są one wystawione na sieć, serwery działające w domyślnej konfiguracji stają się podatne na zdalne wykonywanie kodu (RCE).
Takie ataki mogą prowadzić do kradzieży zasobów, naruszeń bezpieczeństwa danych, lub nieautoryzowanego przejęcia kontroli nad systemami AI. Podatność ta otrzymała krytyczną ocenę CVSS wynoszącą 9.3 (na 10) od firmy zajmującej się bezpieczeństwem Snyk, chociaż Meta oceniła ją na średnim poziomie 6.3, jak podaje Oligo.
Badacze z Oligo odkryli tę wadę podczas analizy otwartych frameworków AI. Pomimo gwałtownego wzrostu popularności Stack Llama – przeszedł z 200 gwiazdek na GitHubie do ponad 6000 w ciągu kilku miesięcy – zespół zasygnalizował ryzykowne użycie pickle do deserializacji, co jest częstą przyczyną podatności na RCE.
Aby wykorzystać lukę, napastnicy mogli skanować otwarte porty, wysyłać złośliwe obiekty do serwera i wywoływać wykonanie kodu podczas deserializacji. Domyślna implementacja Meta dla serwera inferencyjnego Llama Stack okazała się szczególnie podatna.
Meta szybko poradziła sobie z problemem po ujawnieniu go przez Oligo we wrześniu 2024 roku. Do października wydano łatkę, zastępującą niebezpieczną deserializację opartą na pickle bezpieczniejszą, walidującą typ implementacją JSON za pomocą biblioteki Pydantic. Użytkowników zachęca się do uaktualnienia do wersji Llama Stack 0.0.41 lub wyższej, aby zabezpieczyć swoje systemy.
Twórcy pyzmq, biblioteki używanej w Llama Stack, zaktualizowali również swoją dokumentację, ostrzegając przed używaniem recv_pyobj z niezaufanymi danymi.
Ten incydent podkreśla ryzyko związane z korzystaniem z niebezpiecznych metod serializacji w oprogramowaniu. Deweloperzy są zachęcani do korzystania z bezpieczniejszych alternatyw i regularnej aktualizacji bibliotek, aby łagodzić podatności. Dla narzędzi AI, takich jak Llama Stack, solidne środki bezpieczeństwa pozostają niezbędne, ponieważ te ramy nadal napędzają kluczowe aplikacje przedsiębiorstw.
Zostaw komentarz
Anuluj odpowiedź