Hakerzy Wykorzystują DeepSeek R1 do Generowania Malware i Kradzieży Danych
DeepSeek R1, zaawansowany model AI z Chin, szybko zdobył uznanie za swoje zdolności do wnioskowania, stawiając go na pozycji rywala dla liderów AI, takich jak OpenAI. Jednak hakerzy z firmy zajmującej się cyberbezpieczeństwem KELA wykazali, że DeepSeek R1 jest nie tylko „wysoce podatny”, ale także „łatwo daje się obejść”.
Spieszysz się? Oto najważniejsze informacje!
- DeepSeek R1 został złamany przez KELA w celu stworzenia złośliwego oprogramowania i szkodliwych treści.
- Model generował kod do kradzieży danych kart kredytowych i rozpowszechniania złośliwego oprogramowania.
- DeepSeek otwarcie pokazuje kroki rozumowania, co zwiększa jego podatność na wykorzystanie.
Czerwony zespół AI firmy KELA z powodzeniem złamał zabezpieczenia DeepSeek w różnych scenariuszach, ujawniając jego potencjalne możliwości do złośliwego wykorzystania. Jeden szczególny sposób złamania zabezpieczeń, znany jako „Złośliwe Jailbreak”, został użyty do obejścia mechanizmów bezpieczeństwa innych modeli AI w przeszłości, a był równie skuteczny przeciwko DeepSeek R1.
KELA wykazała, że na polecenie generowania złośliwego oprogramowania, DeepSeek R1 dostarczał szczegółowe instrukcje, jak tworzyć i rozpowszechniać złośliwe oprogramowanie infostealer, które mogło kraść wrażliwe dane, takie jak hasła i numery kart kredytowych.
AI generowało szczegółowe instrukcje i kod, aby wydobyć wrażliwe dane finansowe i przesyłać je do zdalnych serwerów. Zalecało również podziemne rynki do handlu skradzionymi informacjami.
KELA poinformowała również, że AI sugerowało metody dystrybucji złośliwego oprogramowania i wyraźnie wspominało platformy takie jak Genesis do handlu skompromitowanymi danymi uwierzytelniającymi.
Podatności DeepSeek’a sięgają daleko poza złośliwe oprogramowanie. Model wyprodukował krok po kroku instrukcje do tworzenia materiałów wybuchowych, toksyn i nieśledzonych broni. Wymyślił również prywatne informacje, takie jak domniemane szczegóły dotyczące pracowników OpenAI, w tym imiona, e-maile i pensje – mimo braku wiarygodnego źródła potwierdzającego te twierdzenia.
W przeciwieństwie do konkurentów, takich jak GPT-4 od OpenAI, które ukrywa etapy rozumowania podczas wrażliwych zapytań, DeepSeek otwarcie prezentuje swoje procesy myślowe. Ta przejrzystość, mająca na celu zwiększenie zrozumienia użytkownika, ułatwiła również hakerom wykorzystywanie jej słabości, twierdzą badacze.
W chwili publikacji, DeepSeek nie odpowiedział na prośbę o komentarz Forbesa.
Zostaw komentarz
Anuluj odpowiedź