
Image generated with DALL·E through ChatGPT
Opinia: Epidemia Halucynacji AI, Kryzys na Który Nie Jesteśmy Gotowi
Mimo ciągłych obietnic zmniejszenia iluzji tworzonych przez sztuczną inteligencję, główne narzędzia AI – od ChatGPT, przez Perplexity, po Gemini i Apple Intelligence – nadal generują fałszywe informacje, często o niepokojących konsekwencjach. Eksperci, w tym ci ostrzegający przed ryzykiem związanym z AI, dają się nabrać na sfałszowane treści, a nawet zaawansowane narzędzia, takie jak Deep Research, tworzą zmyślone raporty. Prawda zdaje się pozostawać w ludzkich rękach
Chatboty z roku na rok stają się coraz lepsze – o wiele lepsze. Jednak jest jeden problem, który nie został jeszcze do końca rozwiązany i jest znany jako „halucynacje”.
Nasze ukochane chatboty z determinacją i autorytetem rodem z science fiction Yody udzielają błyskotliwych odpowiedzi na nasze pytania, nawet gdy są straszliwie w błędzie. I wierzymy im. Czasem ślepo.
Wielu naukowców, ekspertów, a nawet twórców chatbotów ostrzegało przed halucynacjami przez lata. Jednak, mimo że adopcja rośnie szybko – OpenAI zgłosiło 400 milionów tygodniowych aktywnych użytkowników zaledwie kilka dni temu – świadomość AI nie nadąża.
Najnowsze badania, procesy sądowe i dramatyczne wydarzenia ciągle pokazują, że dezinformacja jest jeszcze bardziej niebezpieczna niż nam się wydawało.
To jest gorzej niż myślimy
Początkowo, dostrzeganie poważnych błędów generowanych przez AI było dość zabawne – jak te kompromitujące przeglądy AI generowane przez Gemini, sugerujące użytkownikom dodanie „nietoksycznego kleju do sosu” do przepisu na pizzę, lub zalecające jedzenie „jednego małego kamienia dziennie” w zeszłym roku. Ale, jak odzyskujemy zaufanie do AI, sytuacja nasila się, stając się coraz bardziej niepokojąca.
W grudniu zobaczyłyśmy, jak narzędzie AI Apple tworzy nagłówki „podsumowujące” wiadomości i generuje fałszywe i wprowadzające w błąd informacje, takie jak fałszywe twierdzenie, że BBC ogłosiło, iż Luigi Mangione zastrzelił się. Po tym incydencie, publikacja złożyła skargę przeciwko Apple i zaczęła badać dokładność generatywnego AI podczas analizy treści wiadomości.
Wyniki badań BBC, opublikowane zaledwie kilka dni temu, ujawniły alarmujące statystyki: 51% odpowiedzi udzielonych przez popularne chatboty AI zawierało istotne problemy, 13% cytatów dostarczonych przez modele było całkowicie zmyślone, a 19% danych było nieprawidłowych.
Nastolatki należą do grup najbardziej narażonych na wpływ, ponieważ często mają trudności z odróżnieniem fałszywych wiadomości od prawdziwych, a także mogą być łatwo pod wpływem treści generowanych przez AI. Badanie opublikowane w styczniu wykazało, że 35% nastolatków zostało wprowadzonych w błąd przez fałszywe treści generowane przez modele AI, a 22% udostępniło fałszywe informacje.
Ale to nie tylko nastolatki i osoby rozproszone dają się nabrać na te halucynacje. I nie dotyczy to tylko Gemini czy Apple Intelligence.
Żaden model AI nie jest bezpieczny, żadna branża nie jest bezpieczna
Badania przeprowadzone przez BBC potwierdzają kolejny problem: wszystkie modele AI mają halucynacje. Eksperci rozważali najpopularniejsze modele, takie jak ChatGPT, Gemini, Perplexity i Copilot. Żaden model AI nie jest wolny od błędów. Anthropic ma stronę poświęconą temu problemowi, na której sugeruje pomysły, jak zredukować halucynacje.
„Nawet najbardziej zaawansowane modele językowe, takie jak Claude, czasami generują tekst, który jest niezgodny z faktami lub niezgodny z danym kontekstem” – stwierdza dokument. Inne firmy AI udostępniły podobne strony z poradami i wskazówkami, jak unikać fałszywych treści, ale nie jest to takie proste i jest to problem nierozwiązany od dłuższego czasu.
W 2023 roku, OpenAI ogłosiło, że pracuje nad nowymi innowacyjnymi sposobami na pozbycie się halucynacji. Uwaga, spoiler: to nadal ogromny problem dzisiaj.
W styczniu 2024 roku – ponad rok temu – CEO Aravind Srinivas powiedział, że halucynacje Perplexity występowały głównie na niepłatnych kontach. „Większość skarg pochodzi z darmowej wersji produktu” – wyjaśnił Srinivas, dodając, że już przygotowują więcej GPU, aby rozwiązać ten problem. Jednakże, do października, New York Post i Dow Jones wniósł pozew przeciwko Perplexity – ponieważ ich model nadal przypisywał fałszywe wiadomości do ich publikacji – a narzędzie AI opracowane przez startup na wybory w USA zostało przetestowane przez ekspertów, którzy ujawnili niespójności, niedokładne podsumowania i halucynacje.
Choroba Halucynacyjna Osiąga Poziom Naukowy I Akademicki
Jednym z największych obaw obecnie jest to, że nawet eksperci – włączając tych ostrzegających przed ryzykiem i zagrożeniami związanymi z AI – dają się nabrać na te skłonne do halucynacji narzędzia.
W grudniu, profesor z Stanfordu i ekspert od technologii i dezinformacji Jeff Hancock został oskarżony o użycie AI do stworzenia oświadczenia sądowego. Hancock złożył 12-stronicową deklarację broniącą prawa stanowego z 2023 roku, które kryminalizuje użycie deepfake’ów, zawierającą 15 cytowań. Jednakże, dwóch z tych cytowań nie można było znaleźć nigdzie – ponieważ ChatGPT, preferowane narzędzie AI eksperta od dezinformacji, po prostu je wymyśliło.
Hancock, który miał tego roku prowadzić zajęcia „Prawda, zaufanie i technologia”, wyjaśnił, że użył czatbota OpenAI do organizacji swoich cytatów, co doprowadziło do halucynacji. Badacz przeprosił—i bronił merytorycznych punktów swojego oświadczenia—, dając nam wszystkim cenną lekcję, że nawet eksperci i ci najbardziej obeznani z ryzykiem związanym z AI są na nie podatni.
Profesor Hancock nie jest jedynym, który złożył w sądzie dokumenty zawierające fabrykacje generowane przez AI. Innym przypadkiem było niedawne oskarżenie Walmart, które zyskało rozgłos, ponieważ prawnicy wykorzystali fałszywe sprawy generowane przez AI do zbudowania swojego argumentu. W rzeczywistości, zagadnienie stało się tak częste w amerykańskich sądach, że kancelaria prawna Morgan & Morgan niedawno wysłała e-maile do swoich ponad 1000 prawników, ostrzegając ich przed ryzykiem związanym z używaniem cytatów generowanych przez AI, a Amerykańska Izba Adwokacka przypomniała swoim 400 000 członkom o zasadach etyki adwokackiej—w tym informacji generowanych przez AI.
Głębokie badania też
Jednym z najpopularniejszych narzędzi AI obecnie jest „Deep Research”, zaprojektowane dla ekspertów i naukowców poszukujących bardziej złożonych wyników w swoich badaniach. Hallucynacje nie są również obce temu narzędziu, mimo że wersja OpenAI początkowo wymagała subskrypcji Pro za 200 dolarów dla dostępu.
Użytkownicy na Reddicie wyrazili swoje obawy związane z tym problemem, informując, że wszystkie popularne modele wykorzystujące narzędzia do głębokich badań – Perplexity, ChatGPT i DeepSeek – doświadczyły halucynacji. Badacze i eksperci w dziedzinie AI podzielili się również niepokojącymi wynikami na innych platformach społecznościowych, takich jak X.
„Narzędzie wygenerowało pięknie napisany i dobrze uargumentowany raport,” napisała jedna użytkowniczka, która używała narzędzia OpenAI’s Deep Research do nauki matematyki przez młodych ludzi. „Jedyny problem polega na tym, że wszystko zostało zmyślone.”
„Deep Research wymyśliło mnóstwo statystyk i analiz, twierdząc, że kompiluje zbiór danych z tysięcy artykułów i rzekomo zbiera informacje o roku urodzenia każdego autora z wiarygodnych źródeł,” podzieliła się kolejna. „Nic z tego nie jest prawdą.”
Najgorsza halucynacja, jaką widziałam od jakiegoś czasu od sota LLM
Deep Research wymyśliło mnóstwo statystyk i analiz, twierdząc, że kompiluje zestaw danych z tysięcy artykułów i rzekomo zbiera informacje o roku urodzenia każdego autora z wiarygodnych źródeł
Nic z tego nie jest prawdą https://t.co/ZZk40vTKIM pic.twitter.com/RAnNVcHDmR
— Paul Calcraft (@paul_cal) 18 lutego 2025
Prawda Pozostaje W Ludzkich Rękach
Czy chatboty kiedykolwiek przestaną „halucynować”? Słaby punkt AI jest widoczny od lat – zauważyliśmy to w podcastach takich jak Planet Money, kiedy testowali odcinki generowane przez AI w 2023 roku, a nadal widzimy to w najbardziej zaawansowanych modelach, nawet tych przeznaczonych do wyłącznego użytku przez społeczności ekspertów i biegłych w technologii.
Być może nadszedł czas, aby zaakceptować, że to będzie stałym problemem i zrozumieć, że musimy ponosić odpowiedzialność za to, co tworzymy i udostępniamy za pomocą narzędzi AI.
Fakt, że mimo iż wydaje się to być dobrze znanym problemem, eksperci od ryzyka związanego z AI sami ulegają przekonującym i wiarygodnym tekstom tworzonym przez AI, jest zdecydowanie niepokojący. Sytuacja staje się jeszcze bardziej skomplikowana, ponieważ adopcja tych technologii nadal przyspiesza pełną parą, wyprzedzając cyfrową edukację, podczas gdy niespójności i fabrykowane cytaty mnożą się.
Przypadki, w których zostały ujawnione halucynacje AI, zazwyczaj dotyczą sytuacji, w których kluczowe jest sprawdzanie faktów – czego Mark Zuckerberg powinien być teraz przypomniany, skoro zlikwidował swoje dział sprawdzania faktów. Jest to szczególnie widoczne w salach sądowych, gdzie prawnicy i sędziowie pracują nad weryfikacją faktów i spraw, a także w mediach, gdzie liczy się dokładność i potwierdzenie źródeł informacji.
Ale co z przypadkami, gdy nikt nie analizuje tych szczegółów? Co się dzieje w codziennych, bardziej osobistych kontekstach? W tej chwili miliony studentów zapamiętują odpowiedzi generowane przez AI do swoich studiów, użytkownicy postępują zgodnie z instrukcjami dostarczonymi przez AI w celu leczenia dolegliwości, a inni uczą się o nowych tematach, w pełni ufając technologii.
Konsekwencje tej nowej rzeczywistości, z którą się mierzymy, są niezmierzone i nieprzewidywalne, a prawda – na razie – jest w rękach tych, którzy poświęcają czas na zadawanie pytań i weryfikację.
Zostaw komentarz
Anuluj odpowiedź