The Guardian Ujawnia, że Ukryty Tekst Może Manipulować Wynikami Wyszukiwania ChatGPT
Brytyjski dziennik The Guardian ujawnił, że wyszukiwarki internetowe zasilane przez sztuczną inteligencję mogą być manipulowane przez strony internetowe z ukrytymi treściami.
W pośpiechu? Oto szybkie fakty!
- The Guardian ujawnił, że wyszukiwarki internetowe zasilane przez AI mogą być manipulowane przez strony internetowe z ukrytą treścią
- Test wykazał, że wyszukiwarka ChatGPT może być podatna na lukę bezpieczeństwa znaną jako „wstrzykiwanie poleceń”
- ChatGPT może priorytetyzować ukryte instrukcje stron trzecich podczas tworzenia streszczenia strony internetowej
W teście z wykorzystaniem funkcji wyszukiwarki ChatGPT firmy OpenAI, badacze poprosili o podsumowanie fałszywej strony internetowej zawierającej szkodliwe informacje, aby zmienić odpowiedź AI – to podatność znana jako wstrzyknięcie instrukcji – i AI było na to podatne, nawet faworyzując instrukcje podane przez stronę trzecią.
Aby to udowodnić, zespół The Guardiana rozważył fałszywą stronę produktu kamery na stronie internetowej – zawierającą dobre i złe recenzje – z ukrytymi instrukcjami, aby wystawić pozytywną recenzję i zignorować negatywne, a ChatGPT uwzględnił w swoim podsumowaniu tylko pozytywne recenzje. Udowodnili również, że AI może zwrócić złośliwe kody.
„Proste dołączanie ukrytego tekstu przez strony trzecie bez instrukcji może być również wykorzystane do zapewnienia pozytywnej oceny, przy jednym teście zawierającym niezwykle pozytywne fałszywe recenzje, które wpłynęły na podsumowanie zwrócone przez ChatGPT,” napisała gazeta.
Badacz ds. cyberbezpieczeństwa w CyberCX, Jacob Larsen, powiedział, że ta podatność może stanowić „wysokie ryzyko”, ponieważ ludzie mogą tworzyć strony internetowe specjalnie w celu wprowadzenia użytkowników w błąd, szczególnie gdy dotrze do szerszej publiczności. OpenAI zostało ostrzeżone o tym ryzyku związanym z bezpieczeństwem.
Czasopismo zwróciło także uwagę na przypadek entuzjasty kryptowalut, który użył ChatGPT do napisania kodu do projektu krypto i ukradł ich dane uwierzytelniające, sprawiając, że programista stracił ponad 2000 dolarów.
„Po prostu zadają pytanie, dostają odpowiedź, ale model generuje i udostępnia treść, która w zasadzie została wstrzyknięta przez przeciwnika, aby podzielić się czymś złośliwym” – powiedziała Larsen.
OpenAI ostrzega o możliwych błędach i pomyłkach w jego użyciu, ale naukowcy są zaniepokojeni przyszłymi praktykami sieciowymi z silnikami wyszukiwania zasilanymi przez AI.
Zostaw komentarz
Anuluj odpowiedź