Halucynacje Sztucznej Inteligencji Wzrastają, Jako że Narzędzia Stają Się Bardziej Skomplikowane

Image by Kelly Sikkema, from Unsplash

Halucynacje Sztucznej Inteligencji Wzrastają, Jako że Narzędzia Stają Się Bardziej Skomplikowane

Przeczytasz w: 3 min

Nowe systemy A.I. od firm takich jak OpenAI są bardziej zaawansowane niż kiedykolwiek, ale coraz częściej rozpowszechniają fałszywe informacje – i nikt nie wie dlaczego.

W pośpiechu? Oto najważniejsze fakty:

  • Nowe modele rozumowania przewidują odpowiedzi, często wymyślając fakty bez wyjaśnienia.
  • OpenAI o4-mini urojone odpowiedzi w prawie 80% przypadków testowych.
  • Eksperci przyznają, że nadal nie rozumieją w pełni procesów decyzyjnych A.I.

Systemy A.I. stają się coraz potężniejsze, ale popełniają też coraz więcej błędów, a nikt do końca nie wie dlaczego, jak pierwotnie zgłosił The New York Times.

Zaledwie w zeszłym miesiącu, Cursor, narzędzie do kodowania, musiało uspokajać zirytowanych klientów po tym, jak jego bot obsługi klienta oparty na sztucznej inteligencji błędnie poinformował ich, że nie mogą już używać produktu na wielu urządzeniach.

„Nie mamy takiej polityki. Oczywiście możesz korzystać z Cursora na wielu maszynach” – wyjaśnił na Reddit CEO, Michael Truell, obwiniając bota za fałszywą wiadomość, jak donosi The Times.

Zaawansowane systemy AI od OpenAI i Google oraz DeepSeek z Chin doświadczają coraz częstszych „halucynacji”, które są błędami w ich działaniu. Narzędzia te wykorzystują swoje zdolności „rozumowania” do rozwiązywania problemów, ale często generują nieprawidłowe przypuszczenia i wymyślone informacje.

The Times informuje, że wyniki nowych testów modeli wykazały, że te systemy generowały wymyślone odpowiedzi w 79% swoich reakcji.

„Mimo naszych najlepszych starań, zawsze będą mieć halucynacje” – powiedział Amr Awadallah, CEO Vectara i były dyrektor Google, jak podaje The Times. Boty działają bez ustalonych zasad, ponieważ generują odpowiedzi na podstawie prawdopodobieństwa, co prowadzi do fabrykowania informacji.

To duży problem dla użytkowników obsługujących dane prawne, medyczne czy biznesowe. „Nie radzenie sobie z tymi błędami właściwie eliminuje wartość systemów A.I.” – powiedział Pratik Verma, CEO Okahu.

W jednym przykładzie, błędy generowane przez sztuczną inteligencję powodują problemy w realnym świecie, szczególnie w delikatnych obszarach, takich jak praca prawnicza. Prawnicy spotkali się z sankcjami za używanie sfabrykowanych informacji z modeli AI w dokumentach sądowych.

Raport ujawnił, że dwóch prawników z Wyoming zawarło w pozwie przeciwko Walmart fałszywe sprawy generowane przez AI, co skutkowało groźbą sankcji ze strony federalnego sędziego. To wywołało ostrzeżenia w środowisku prawniczym o ryzyku polegania na AI w zadaniach wymagających zweryfikowanych informacji.

Model o3 stworzony przez OpenAI wywoływał halucynacje podczas testów w 33% przypadków, co stanowiło wynik dwukrotnie wyższy niż w przypadku modelu o1. Model o4-mini wykazał najwyższy wskaźnik halucynacji na poziomie 48%. „Aktywnie pracujemy nad zmniejszeniem wysokich wskaźników halucynacji” – powiedziała rzeczniczka OpenAI, Gaby Raila, jak podaje The Times.

Problemy te są jeszcze bardziej skomplikowane z powodu obaw dotyczących wpływu AI na dziennikarstwo. Badanie przeprowadzone przez BBC wykazało, że popularne AI chatboty mają problemy z dokładnością treści informacyjnych, a 51% odpowiedzi zawierało poważne błędy, w tym zmyślone cytaty i nieścisłości faktograficzne.

Badacze twierdzą, że częścią problemu jest sposób szkolenia tych botów. „Nadal nie wiemy dokładnie, jak działają te modele” – powiedziała Hannaneh Hajishirzi z Uniwersytetu Waszyngtońskiego, jak podaje The Times.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
5.00 Na podstawie głosów 1 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...