![Badania BBC Ujawniają, że Asystenci AI Mają Problemy z Dokładnością Treści Wiadomości](https://pl.wizcase.com/wp-content/uploads/2025/02/roman-kraft-_Zua2hyvTBk-unsplash.webp)
Photo by Roman Kraft on Unsplash
Badania BBC Ujawniają, że Asystenci AI Mają Problemy z Dokładnością Treści Wiadomości
BBC opublikowało nowe badanie, które ujawnia, że powszechnie dostępne asystenty AI mają problem z dostarczaniem dokładnych odpowiedzi na pytania ekspertów na temat wiadomości publikowanych na ich stronie internetowej.
W pośpiechu? Oto najważniejsze fakty!
- Dziennikarze i eksperci BBC ujawnili, że 51% odpowiedzi udzielonych przez popularne chatboty AI zawierało istotne błędy.
- Badanie pokazuje, że 13% cytatów dostarczonych przez modele AI zostało zmienionych lub wymyślonych.
- 19% informacji dostarczonych przez narzędzia AI — z treści News BBC — było nieprecyzyjnych.
Zgodnie z badaniem opublikowanym przez BBC, badacze rozważali popularne generatywne AI chatboty, takie jak ChatGPT, Perplexity, Copilot i Gemini. Badanie przeprowadzono w ciągu miesiąca – zapewniając dostęp do strony internetowej BBC – i wykazało, że 51% odpowiedzi udzielonych przez narzędzia AI miało znaczące problemy.
Dziennikarze i eksperci oceniali dokładność, bezstronność i analizę sposobu, w jaki technologie AI reprezentowały dostarczaną treść. Inne wyniki badania pokazały, że 13% cytatów dostarczonych przez modele AI zostało zmienionych w stosunku do oryginalnego źródła lub wymyślonych, a 19% wyników dotyczących treści BBC zawierało błędy lub nieścisłości faktograficzne – dotyczące liczb, dat lub oświadczeń.
„Jesteśmy podekscytowani przyszłością AI i wartością, jaką może przynieść publiczności”, powiedział Pete Archer, Dyrektor Programu Generative AI w BBC, w publicznym ogłoszeniu. „Ale AI stwarza również znaczne wyzwania dla odbiorców. Ludzie mogą myśleć, że mogą ufać temu, co czytają od tych asystentów AI, ale to badanie pokazuje, że mogą one generować odpowiedzi na pytania dotyczące kluczowych wydarzeń informacyjnych, które są zniekształcone, nieprawdziwe lub wprowadzające w błąd.”
Eksperci zauważyli, że informacje dostarczane przez ChatGPT i Copilot nie były aktualne. Jako przykład podali, że oba chatboty twierdziły, że Rishi Sunak i Nicola Sturgeon nadal pełnią funkcje Premiera i Pierwszego Ministra, mimo że obie osoby już opuściły te stanowiska.
BBC również skarżyło się na inne technologie dostarczające nieprecyzyjne informacje, jak na przykład podsumowania wiadomości przez Inteligencję Apple’a, które zawierały fałszywe informacje. Gigant technologiczny niedawno ogłosił nową aktualizację funkcji podsumowania wiadomości AI po złożeniu skargi przez dziennik.
Zostaw komentarz
Anuluj odpowiedź