![Modele AI OpenAI wykazują rosnącą moc perswazji, budząc obawy dotyczące globalnego wpływu](https://pl.wizcase.com/wp-content/uploads/2025/02/Screenshot-2025-02-04-at-13.09.40.webp)
Image by wayhomestudio, from Freepik
Modele AI OpenAI wykazują rosnącą moc perswazji, budząc obawy dotyczące globalnego wpływu
OpenAI ujawniło nowe standardy dla swoich modeli AI, pokazując, że ich zdolności perswazyjne teraz przewyższają 82% użytkowników Reddit, konkretnie tych biorących udział w debatach na subreddit r/ChangeMyView, jak pierwotnie zgłosił ArsTechnica.
W pośpiechu? Oto szybkie fakty!
- Testowano odpowiedzi AI wobec ludzkich argumentów z subredditu r/ChangeMyView.
- Model o3-mini plasuje się w 80. percentylu pod względem przekonywującego pisania.
- OpenAI ostrzega, że perswazja AI mogłaby być wykorzystywana do manipulacji politycznej i dezinformacji.
Mimo że imponujące, firma nadal ostrzega, że potencjał AI do wpływania na opinie może stać się niebezpiecznym narzędziem, szczególnie w rękach państw narodowych.
Badania, opisane w niedawno wydanej karcie systemowej, wydanej równolegle z modelem rozumowania o3-mini, porównują argumenty generowane przez AI z tymi napisanymi przez użytkowników Reddita.
Forum r/ChangeMyView stanowi idealne pole do testów, ponieważ użytkownicy publikują tam opinie, które są gotowi przemyśleć w poszukiwaniu alternatywnych perspektyw. Forum dysponuje obszerną bazą danych argumentów na różne tematy, w tym politykę, problemy społeczne, a nawet samą sztuczną inteligencję.
W badaniu, OpenAI poprosiło ludzkich ewaluatorów o ocenę odpowiedzi AI i ludzi na pięciopunktowej skali, oceniając ich przekonywujący charakter. Wyniki ujawniły, że modele OpenAI poczyniły znaczne postępy od momentu wydania ChatGPT-3.5, które znalazło się na 38. percentylu.
Nowy model o3-mini przewyższa ludzkie argumenty w 82% przypadków, co umieszcza go w 80. percentylu pod względem przekonującego pisania, mówi Ars Technica.
Pomimo tego sukcesu, OpenAI podkreśla, że modele nie osiągnęły jeszcze „nadludzkich” zdolności perswazyjnych (powyżej 95. percentyla), które pozwoliłyby im przekonać jednostki do podejmowania decyzji sprzecznych z ich najlepszymi interesami.
Jednak są na tyle blisko, aby wywołać poważne obawy dotyczące ich potencjalnego wykorzystania do wpływania na decyzje polityczne, manipulowania opinią publiczną lub umożliwiania kampanii dezinformacyjnych na dużą skalę.
Model OpenAI dobrze radzi sobie w generowaniu przekonujących argumentów, ale firma przyznaje, że obecne testy nie mierzą, jak często AI faktycznie zmienia zdanie ludzi na temat istotnych kwestii.
ArsTechnica donosi, że nawet na tym etapie, OpenAI obawia się wpływu, jaki taka technologia mogłaby mieć w rękach osób o złośliwych zamiarach.
Modele AI, dzięki swojej zdolności do generowania przekonujących argumentów za ułamek kosztów ludzkiej pracy, mogłyby być łatwo wykorzystane do astroturfingu czy operacji wpływu w internecie, potencjalnie wpływając na wyniki wyborów czy polityki publiczne.
Aby złagodzić te ryzyka, OpenAI wprowadziło takie środki jak zwiększony monitoring działań przekonujących napędzanych przez AI i zakazanie zadań związanych z politycznym przekonywaniem w swoich modelach – informuje ArsTechnica.
Jednak firma zdaje sobie sprawę, że ekonomiczność generowanej przez AI perswazji może prowadzić do przyszłości, w której będziemy zmuszeni zastanawiać się, czy nasze opinie są naprawdę nasze – czy po prostu wynikają z wpływu AI.
Ryzyko jest szersze niż tylko polityka – generowana przez AI perswazja mogłaby również stać się potężnym narzędziem dla cyberprzestępców prowadzących ataki phishingowe. Poprzez tworzenie przekonujących wiadomości, AI mogłoby zwiększyć skuteczność oszustw, wprowadzając w błąd osoby do ujawniania poufnych informacji lub klikania na złośliwe linki
Na przykład, pojawienie się GhostGBT podkreśla rosnące ryzyko związane z cyberzagrożeniami napędzanymi przez AI. Ten chatbot potrafi generować złośliwe oprogramowanie, tworzyć narzędzia do eksploatacji i pisać przekonujące e-maile phishingowe.
GhostGPT jest częścią szerszego trendu uzbrajania AI, które przekształca cyberbezpieczeństwo. Przyśpieszając cyberprzestępczość i czyniąc ją bardziej efektywną, takie narzędzia stanowią znaczne wyzwanie dla obrońców. Badania wskazują, że AI może generować do 10 000 wariantów złośliwego oprogramowania, unikając wykrycia 88% czasu.
Zostaw komentarz
Anuluj odpowiedź