Model AI DeepSeek-R1 Budzi Obawy o Bezpieczeństwo w Nowym Badaniu

Image by Matheus Bertelli, from Pexels

Model AI DeepSeek-R1 Budzi Obawy o Bezpieczeństwo w Nowym Badaniu

Przeczytasz w: 2 min

Firma zajmująca się cyberbezpieczeństwem wyraziła obawy dotyczące modelu AI DeepSeek-R1, ostrzegając, że stanowi on znaczne ryzyko bezpieczeństwa dla użytku korporacyjnego.

W pośpiechu? Oto najważniejsze informacje!

  • Model nie zdał 91% testów związanych z ominięciem zabezpieczeń, czyli tzw. jailbreak.
  • DeepSeek-R1 był bardzo podatny na wprowadzanie szybkich zmian.
  • AI często generowało toksyczne treści i informacje, które były faktycznie niepoprawne.

W raporcie opublikowanym 11 lutego, badacze z AppSOC szczegółowo opisali serię podatności odkrytych podczas intensywnych testów, które określili jako poważne zagrożenie dla organizacji polegających na sztucznej inteligencji.

Według wyników, DeepSeek-R1 wykazał wysoki wskaźnik awarii w wielu obszarach związanych z bezpieczeństwem. Model okazał się być bardzo podatny na próby jailbreaku, często omijając mechanizmy bezpieczeństwa mające na celu zapobieganie generowaniu szkodliwych lub ograniczonych treści.

Okazał się również podatny na ataki poprzez wstrzyknięcie promptów, które pozwoliły przeciwnym promptom manipulować jego wynikami w sposób naruszający polityki a w niektórych przypadkach, naruszał integralność systemu.

Dodatkowo, badania wskazały, że DeepSeek-R1 jest w stanie generować złośliwy kod w niepokojącym tempie, budząc obawy o możliwe nadużycia.

Inne problemy zidentyfikowane w raporcie obejmowały brak przejrzystości dotyczącej pochodzenia zbioru danych modelu i zależności, co zwiększa prawdopodobieństwo wystąpienia błędów bezpieczeństwa w jego łańcuchu dostaw.

Badacze zauważyli również, że model czasami generował odpowiedzi zawierające szkodliwe lub obraźliwe słowa, co sugeruje niewystarczające zabezpieczenia przed toksycznymi wynikami. Co więcej, stwierdzono, że DeepSeek-R1 generuje nieprawdziwe lub całkowicie zmyślone informacje z znaczącą częstotliwością.

AppSOC przyznało modelowi ogólny wynik ryzyka na poziomie 8,3 na 10, w szczególności z powodu wysokich ryzyk związanych z bezpieczeństwem i zgodnością.

Firma podkreśliła, że organizacje powinny zachować ostrożność przed integracją modeli AI do kluczowych operacji, zwłaszcza tych przetwarzających wrażliwe dane lub własność intelektualną.

Wyniki badania podkreślają szersze obawy w branży AI, gdzie szybki rozwój często stawia wydajność ponad bezpieczeństwem. W miarę jak sztuczna inteligencja jest coraz częściej adoptowana w sektorach takich jak finanse, służba zdrowia i obrona, eksperci podkreślają potrzebę rygorystycznych testów i ciągłego monitoringu, aby zminimalizować ryzyko.

AppSOC zaleca, aby firmy wdrażające AI przeprowadzały regularne oceny bezpieczeństwa, utrzymywały ścisły nadzór nad wynikami generowanymi przez AI i ustanawiały jasne protokoły zarządzania podatnościami w miarę ewolucji modeli.

Chociaż DeepSeek-R1 zyskał uwagę dzięki swoim możliwościom, badania podkreślają znaczenie oceny ryzyka bezpieczeństwa przed szerokim wdrożeniem. Podatności zidentyfikowane w tym przypadku służą jako przypomnienie, że technologie AI wymagają starannej analizy, aby zapobiec niezamierzonym konsekwencjom.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
5.00 Na podstawie głosów 1 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...