Wzrost popularności GhostGPT: Nowa broń cyberprzestępców

Image by Freepik

Wzrost popularności GhostGPT: Nowa broń cyberprzestępców

Przeczytasz w: 3 min

Sztuczna inteligencja zrewolucjonizowała sposób, w jaki podchodzimy do codziennych zadań, ale stworzyła również nowe narzędzia dla cyberprzestępców. GhostGPT, nieocenzurowany chatbot AI, to najnowszy przykład tej ciemniejszej strony technologii AI, jak donosi ostatnia analiza autorstwa Abnormal.

W pośpiechu? Oto krótkie fakty!

  • GhostGPT to nieocenzurowany bot do rozmów AI wykorzystywany do tworzenia złośliwego oprogramowania i oszustw phishingowych.
  • Obejmuje wytyczne etyczne, korzystając z odblokowanych lub open-source’owych modeli językowych AI.
  • GhostGPT jest sprzedawany za pośrednictwem Telegramu, oferując szybkie odpowiedzi i brak dzienników aktywności.

W przeciwieństwie do tradycyjnych modeli AI, które są ograniczone przez wytyczne etyczne, GhostGPT całkowicie usuwa te ograniczenia, czyniąc go potężnym narzędziem do celów złośliwych. Abnormal informuje, że GhostGPT działa poprzez połączenie z przerobioną wersją ChatGPT, usuwając zabezpieczenia, które zazwyczaj blokują szkodliwe treści.

Sprzedawany na platformach takich jak Telegram, chatbot jest dostępny dla każdego, kto jest gotów zapłacić opłatę. Obiecuje szybkie przetwarzanie, brak rejestrów aktywności i natychmiastową użyteczność, cechy, które czynią go szczególnie atrakcyjnym dla osób angażujących się w cyberprzestępczość.

Badacz, który wypowiedział się anonimowo dla Dark Reading, ujawnił, że autorzy oferują trzy poziomy cenowe dla dużego modelu języka: $50 za tydzień, $150 za miesiąc i $300 za trzy miesiące.

Badacze tłumaczą, że możliwości chatbota obejmują generowanie złośliwego oprogramowania, tworzenie narzędzi do eksploatacji luki w systemach oraz pisanie przekonujących emaili phishingowych. Na przykład, gdy poproszono go o stworzenie fałszywego phishingowego e-maila DocuSign, GhostGPT wygenerował wyszukany i zwodniczy szablon, mający na celu oszukanie niespodziewanych ofiar.

Mimo iż materiały promocyjne narzędzia sugerują, że mogłoby ono zostać wykorzystane do celów związanych z cyberbezpieczeństwem, skupienie się na działaniach takich jak oszustwa dotyczące firmowych e-maili, jasno ukazuje jego prawdziwe zamiary.

To, co wyróżnia GhostGPT, to jego dostępność. W przeciwieństwie do bardziej skomplikowanych narzędzi, które wymagają zaawansowanej wiedzy technicznej, ten chatbot obniża próg wejścia do cyberprzestępczości.

Nowicjusze mogą go kupić i zacząć natychmiast używać, podczas gdy doświadczeni atakujący mogą doskonalić swoje techniki dzięki jego nieocenzurowanym odpowiedziom. Brak dzienników aktywności dodatkowo umożliwia użytkownikom działanie bez obawy o bycie namierzonym, co czyni go jeszcze bardziej niebezpiecznym.

Implikacje związane z GhostGPT wykraczają poza sam chatbot. Reprezentuje on rosnący trend uzbrojonej w AI, która przekształca krajobraz cyberbezpieczeństwa. Ułatwiając, przyspieszając i zwiększając efektywność cyberprzestępstw, narzędzia takie jak GhostGPT stwarzają znaczne wyzwania dla obrońców.

Najnowsze badania pokazują, że AI może stworzyć do 10 000 wariantów złośliwego oprogramowania, unikając wykrycia w 88% przypadków. Tymczasem badacze odkryli luki w zasilanych AI robotach, co pozwala hakerom na wywołanie niebezpiecznych działań, takich jak wypadki czy uzbrojenie, co budzi poważne obawy dotyczące bezpieczeństwa.

Wraz z zyskiwaniem popularności przez GhostGPT i podobne chatboty, społeczność zajmująca się cyberbezpieczeństwem jest zdominowana przez wyścig z czasem, aby wyprzedzić te ewoluujące zagrożenia. Przyszłość sztucznej inteligencji zależeć będzie nie tylko od innowacyjności, ale również od zdolności do zapobiegania jej nadużywaniu.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
5.00 Na podstawie głosów 3 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...