![Model AI DeepSeek-R1 Budzi Obawy o Bezpieczeństwo w Nowym Badaniu](https://pl.wizcase.com/wp-content/uploads/2025/02/Screenshot-2025-02-12-at-14.25.53-1.webp)
Image by Matheus Bertelli, from Pexels
Model AI DeepSeek-R1 Budzi Obawy o Bezpieczeństwo w Nowym Badaniu
Firma zajmująca się cyberbezpieczeństwem wyraziła obawy dotyczące modelu AI DeepSeek-R1, ostrzegając, że stanowi on znaczne ryzyko bezpieczeństwa dla użytku korporacyjnego.
W pośpiechu? Oto najważniejsze informacje!
- Model nie zdał 91% testów związanych z ominięciem zabezpieczeń, czyli tzw. jailbreak.
- DeepSeek-R1 był bardzo podatny na wprowadzanie szybkich zmian.
- AI często generowało toksyczne treści i informacje, które były faktycznie niepoprawne.
W raporcie opublikowanym 11 lutego, badacze z AppSOC szczegółowo opisali serię podatności odkrytych podczas intensywnych testów, które określili jako poważne zagrożenie dla organizacji polegających na sztucznej inteligencji.
Według wyników, DeepSeek-R1 wykazał wysoki wskaźnik awarii w wielu obszarach związanych z bezpieczeństwem. Model okazał się być bardzo podatny na próby jailbreaku, często omijając mechanizmy bezpieczeństwa mające na celu zapobieganie generowaniu szkodliwych lub ograniczonych treści.
Okazał się również podatny na ataki poprzez wstrzyknięcie promptów, które pozwoliły przeciwnym promptom manipulować jego wynikami w sposób naruszający polityki a w niektórych przypadkach, naruszał integralność systemu.
Dodatkowo, badania wskazały, że DeepSeek-R1 jest w stanie generować złośliwy kod w niepokojącym tempie, budząc obawy o możliwe nadużycia.
Inne problemy zidentyfikowane w raporcie obejmowały brak przejrzystości dotyczącej pochodzenia zbioru danych modelu i zależności, co zwiększa prawdopodobieństwo wystąpienia błędów bezpieczeństwa w jego łańcuchu dostaw.
Badacze zauważyli również, że model czasami generował odpowiedzi zawierające szkodliwe lub obraźliwe słowa, co sugeruje niewystarczające zabezpieczenia przed toksycznymi wynikami. Co więcej, stwierdzono, że DeepSeek-R1 generuje nieprawdziwe lub całkowicie zmyślone informacje z znaczącą częstotliwością.
AppSOC przyznało modelowi ogólny wynik ryzyka na poziomie 8,3 na 10, w szczególności z powodu wysokich ryzyk związanych z bezpieczeństwem i zgodnością.
Firma podkreśliła, że organizacje powinny zachować ostrożność przed integracją modeli AI do kluczowych operacji, zwłaszcza tych przetwarzających wrażliwe dane lub własność intelektualną.
Wyniki badania podkreślają szersze obawy w branży AI, gdzie szybki rozwój często stawia wydajność ponad bezpieczeństwem. W miarę jak sztuczna inteligencja jest coraz częściej adoptowana w sektorach takich jak finanse, służba zdrowia i obrona, eksperci podkreślają potrzebę rygorystycznych testów i ciągłego monitoringu, aby zminimalizować ryzyko.
AppSOC zaleca, aby firmy wdrażające AI przeprowadzały regularne oceny bezpieczeństwa, utrzymywały ścisły nadzór nad wynikami generowanymi przez AI i ustanawiały jasne protokoły zarządzania podatnościami w miarę ewolucji modeli.
Chociaż DeepSeek-R1 zyskał uwagę dzięki swoim możliwościom, badania podkreślają znaczenie oceny ryzyka bezpieczeństwa przed szerokim wdrożeniem. Podatności zidentyfikowane w tym przypadku służą jako przypomnienie, że technologie AI wymagają starannej analizy, aby zapobiec niezamierzonym konsekwencjom.
Zostaw komentarz
Anuluj odpowiedź