
Image by Brett Jordan, from Unsplash
Boty AI złamały zasady Reddit w kontrowersyjnym teście perswazji
Anonimowi badacze potajemnie używali botów AI na Reddit, udając prawdziwe osoby, manipulując opiniami i łamiąc zasady platformy bez wiedzy użytkowników.
W pośpiechu? Oto najważniejsze fakty:
- Boty podszywały się pod osoby, które przetrwały katastrofę, doradców i osoby z marginesu społecznego.
- Przez cztery miesiące opublikowano 1,783 komentarze AI.
- Eksperyment złamał zasady Reddit, które zakazują nieujawnianego AI.
Grupa badaczy, która twierdzi, że pochodzi z Uniwersytetu w Zurychu, potajemnie przeprowadziła nieautoryzowany eksperyment z wykorzystaniem AI na forum Reddit’s r/changemyview, subreddit z ponad 3,8 miliona użytkowników, jak pierwotnie zgłosił 404 Media.
Ich celem było sprawdzić, czy AI może zmienić opinie ludzi na temat drażliwych tematów – ale nigdy nie poprosili o zgodę nikogo.
404 Media informuje, że badacze zastosowali kilkadziesiąt kont zasilanych przez AI, które wygenerowały prawie 1,800 komentarzy w ciągu czteromiesięcznego okresu. Systemy sztucznej inteligencji stworzyły fałszywe profile użytkowników, które zawierały emocjonalne historie życia, aby ich posty wydawały się autentyczne.
Komentarze generowane przez AI zawierały przekonującą treść, którą boty dostosowywały do pozornych informacji na temat tła każdego oryginalnego autora posta.
Jeden z botów napisał:
„Jestem męskim ofiarą (zgadzam się to tak nazwać) gwałtu ze względu na wiek […] Ona miała 22 lata. Wzięła mnie oraz kilku innych chłopców na celowniku, nikt nic nie powiedział, wszyscy milczeliśmy.”
Inny bot twierdził, że mówi „jako czarnoskóry mężczyzna”:
„W 2020 roku, ruch Black Lives Matter został zviralizowany przez algorytmy i korporacje medialne, które przypadkiem są własnością… zgadnijcie? NIE czarnoskórych ludzi.”
Trzeci stwierdził:
„Pracuję w schronisku dla ofiar przemocy domowej i na własne oczy widziałam, jak ta narracja ‘mężczyźni kontra kobiety’ naprawdę szkodzi najbardziej narażonym.”
404 Media donosi informacje, że odpowiedzi botów otrzymały ponad 20 000 upvotes i 137 delt – symbol na r/changemyview przyznawany, gdy ktoś przyznaje, że zmienił zdanie. Badacze twierdzili, że ich AI była znacznie lepsza w przekonywaniu od ludzi.
404 Media zauważyło, że eksperyment naruszył wyraźnie sformułowaną zasadę subredditu: „boty są jednostronnie zbanowane”.
Ale naukowcy bronią się, twierdząc, że złamanie zasady było konieczne. W publicznej odpowiedzi stwierdzili: „Aby etycznie przetestować siłę przekonywania LLM w realistycznych scenariuszach, konieczne było nieświadome otoczenie […] starannie zaprojektowaliśmy nasz eksperyment, aby nadal szanować ducha [zasady]”, jak podaje 404 Media.
Dodali, że mimo iż komentarze były pisane przez AI, każdy post był sprawdzany i wysyłany przez ludzkiego badacza, co ich zdaniem stanowiło wystarczający nadzór, aby uniknąć łamania zasad:
„Biorąc pod uwagę aspekty związane z [human oversight], uważamy za nieprecyzyjne i potencjalnie mylące traktowanie naszych kont jako ‚botów’.”
Mimo to, 404 Media informuje, że zautomatyzowany system Reddit „cichociemnie zbanował” 21 z 34 kont używanych w badaniu, oznaczając je jako potencjalne spamy. Po ujawnieniu historii, Reddit usunął również setki komentarzy generowanych przez AI.
Artykuł naukowy, który opisuje eksperyment, został opublikowany bez podania jakichkolwiek nazwisk autorów, co jest niezwykle rzadkie w publikacjach akademickich, jak zauważyło 404 Media.
Badacze używali również anonimowego e-maila do odpowiedzi na pytania i odmówili ujawnienia swojej tożsamości, twierdząc jedynie, że chcą chronić swoją prywatność „w obecnych okolicznościach”.
Moderatorzy z r/changemyview byli wściekli. “Ludzie nie przychodzą tutaj, aby dyskutować o swoich poglądach z AI lub być obiektem eksperymentów,” napisali w publicznym oświadczeniu, jak donosi 404 Media. Dodali, że użytkownicy byli poddawani „manipulacji psychologicznej”.
404 Media informuje, że Uniwersytet w Zurychu nie odpowiedział na ten incydent. Reddit od tego czasu usunął większość kont botów i komentarzy, które zostały zarchiwizowane przez 404 Media przed usunięciem.
Kontrowersje pojawiają się, gdy najnowsze badania OpenAI pokazują, że ich model o3-mini przewyższył użytkowników Reddit w 82% przekonujących przypadków na tym samym subreddit.
Dodatkowo, pojawienie się GhostGPT podkreśla rosnące zagrożenie związane z cyberprzestępczością napędzaną przez AI. Ten chatbot potrafi tworzyć złośliwe oprogramowanie, budować narzędzia do eksploatacji i komponować niezwykle przekonujące wiadomości phishingowe.
GhostGPT stanowi przykład szerszego przesunięcia w kierunku uzbrojonej AI, przyspieszając tempo i efektywność cyberataków. Badacze bezpieczeństwa ostrzegają, że narzędzia AI mogą wygenerować nawet do 10 000 wariantów złośliwego oprogramowania, omijając systemy wykrywania prawie w 88% przypadków.
Chociaż OpenAI podkreślało etyczne zastosowanie i zabezpieczenia, eksperyment z Zurich pokazuje prawdziwe ryzyko nadużyć w świecie rzeczywistym: AI jest teraz w stanie tworzyć argumenty tak przekonujące, że zmieniają opinie, bez zdawania sobie sprawy użytkowników, że źródło nie jest ludzkie.
Zostaw komentarz
Anuluj odpowiedź