Badacze Odkrywają Błędy Bezpieczeństwa w Otwartoźródłowych Modelach AI i ML
Śpieszysz się? Oto krótkie fakty!
- Znaleziono ponad 30 luk bezpieczeństwa w otwartoźródłowych narzędziach AI i ML.
- Poważne podatności wpływają na narzędzia takie jak Lunary, ChuanhuChatGPT i LocalAI.
- Wada LocalAI pozwala atakującym na wywnioskowanie kluczy API za pomocą analizy czasu.
Niedawne dochodzenie ujawniło ponad 30 błędów związanych z bezpieczeństwem w otwartoźródłowych modelach sztucznej inteligencji (AI) i uczenia maszynowego (ML), co budzi obawy dotyczące potencjalnego kradzieży danych i nieautoryzowanego wykonania kodu, jak donosi The Hacker News (THN).
Te podatności zostały znalezione w powszechnie używanych narzędziach, w tym ChuanhuChatGPT, Lunary i LocalAI, a zgłoszenie zostało przekazane za pośrednictwem platformy nagród za znalezienie błędów Huntr firmy Protect AI, która motywuje deweloperów do identyfikowania i ujawniania problemów z bezpieczeństwem.
Wśród zidentyfikowanych najpoważniejszych podatności, dwa główne błędy mają wpływ na Lunary, zestaw narzędzi zaprojektowany do zarządzania dużymi modelami języka (LLM) w środowiskach produkcyjnych.
Pierwszy błąd, oznaczony jako CVE-2024-7474, jest klasyfikowany jako podatność na Niebezpieczne Bezpośrednie Odwołanie do Obiektu (IDOR). Pozwala użytkownikowi z uprawnieniami dostępu na przeglądanie lub usuwanie danych innych użytkowników bez upoważnienia, co potencjalnie prowadzi do naruszeń ochrony danych i nieautoryzowanej utraty danych.
Drugim istotnym problemem jest CVE-2024-7475, który stanowi lukę w kontroli dostępu, pozwalającą atakującemu na aktualizację konfiguracji SAML (Security Assertion Markup Language) systemu.
Wykorzystując tę wadę, atakujący mogą ominąć zabezpieczenia logowania, aby uzyskać nieautoryzowany dostęp do danych osobowych, co stanowi poważne ryzyko dla każdej organizacji, która polega na Lunary do zarządzania LLMs.
W Lunary zidentyfikowano kolejną lukę bezpieczeństwa, CVE-2024-7473, która również wiąże się z podatnością IDOR umożliwiającą atakującym aktualizację komunikatów wysłanych przez innych użytkowników. Jest to możliwe dzięki manipulacji parametrem sterowanym przez użytkownika, co umożliwia ingerencję w interakcje innych osób w systemie.
W ChuanhuChatGPT krytyczna podatność (CVE-2024-5982) pozwala atakującemu na wykorzystanie błędu przemieszczania się po ścieżkach w funkcji przesyłania plików przez użytkowników, jak zauważył THN.
Ten błąd może prowadzić do dowolnego wykonania kodu, tworzenia katalogów i ujawnienia wrażliwych danych, stanowiąc wysokie ryzyko dla systemów opierających się na tym narzędziu. LocalAI, kolejna platforma open-source, która umożliwia użytkownikom uruchamianie samodzielnie hostowanych LLM, ma dwa główne błędy, które stanowią podobne zagrożenia dla bezpieczeństwa, powiedział THN.
Pierwszy błąd, CVE-2024-6983, umożliwia wykonanie złośliwego kodu, pozwalając atakującym na przesłanie szkodliwego pliku konfiguracyjnego. Drugi, CVE-2024-7010, pozwala hakerom wnioskować o klucze API, mierząc czasy odpowiedzi serwera, korzystając z metody ataku czasowego, aby stopniowo odgadnąć każdy znak klucza, zauważył THN.
W odpowiedzi na te wyniki, Protect AI wprowadziło nowe narzędzie o nazwie Vulnhuntr, otwartoźródłowy analizator statyczny kodu Python, który wykorzystuje duże modele języka do wykrywania podatności w bazach kodów Pythona, jak podaje THN.
Vulnhuntr dzieli kod na mniejsze fragmenty, aby zidentyfikować błędy bezpieczeństwa w ramach ograniczeń kontekstu modelu języka. Skanuje pliki projektu, aby wykryć i śledzić potencjalne słabości od wprowadzania danych przez użytkownika do wyjścia serwera, poprawiając bezpieczeństwo dla deweloperów pracujących z kodem AI.
Te odkrycia podkreślają kluczowe znaczenie ciągłej oceny podatności i aktualizacji zabezpieczeń w systemach AI i ML w celu ochrony przed pojawiającymi się zagrożeniami na dynamicznie zmieniającej się scenie technologii AI.
Zostaw komentarz
Anuluj odpowiedź