Coraz Więcej Nastolatków Ulega Dezinformacji Generowanej przez Sztuczną Inteligencję, Wynika z Badania
Coraz większa liczba nastolatków ma problemy z odróżnieniem autentycznej treści od tej manipulowanej w internecie, a media generowane przez sztuczną inteligencję tylko zwiększają to zamieszanie.
Spieszysz się? Oto szybkie fakty!
- Wielu nastolatków udostępniło treści, które później okazały się fałszywe.
- Wielu nastolatków nie ufa firmom technologicznym, że będą stawiać na pierwszym miejscu ich zdrowie psychiczne.
- Większość nastolatków popiera oznaczanie treści generowanych przez AI znakiem wodnym dla zachowania przejrzystości.
Niedawny raport pokazuje, że 35% nastolatków zostało wprowadzonych w błąd przez fałszywe treści, podczas gdy 22% przyznało, że udostępniało treści, które później okazały się fałszywe, a 28% zastanawiało się, czy rozmawiają z człowiekiem czy chatbotem.
Te doświadczenia znacząco zmieniły zaufanie nastolatków do informacji w internecie. Raport wykazał, że 72% nastolatków zmieniło sposób oceny treści cyfrowych po zetknięciu się z materiałem wprowadzającym w błąd.
Co więcej, więcej niż jedna trzecia (35%) uważa, że generative AI jeszcze bardziej podważy zaufanie do informacji w sieci. Ci, którzy zostali wprowadzeni w błąd przez fałszywe treści, są jeszcze bardziej sceptyczni, z 40% twierdzących, że AI utrudni weryfikację prawdziwości, w porównaniu do 27% tych, którzy nie mieli podobnych doświadczeń.
Generative AI napotyka na poważne problemy z wiarygodnością wśród nastolatków, zwłaszcza w środowisku akademickim. Prawie dwie na pięć osób (39%) uczniów, którzy używali AI do pracy domowej, zgłosiło nieścisłości w treści generowanej przez AI. Tymczasem 36% nie zauważyło żadnych problemów, a 25% nie było pewne.
Budzi to obawy dotyczące niezawodności AI w kontekście edukacyjnym, podkreślając potrzebę lepszych narzędzi i umiejętności krytycznego myślenia, które pomogą nastolatkom oceniać treści generowane przez AI.
Poza AI, zaufanie do dużych firm technologicznych pozostaje niskie. Około 64% nastolatków uważa, że duże firmy technologiczne nie stawiają na pierwszym miejscu ich zdrowia psychicznego, a 62% myśli, że te firmy nie chroniłyby bezpieczeństwa użytkowników, gdyby to zaszkodziło ich zyskom.
Więcej niż połowa również wątpi, czy giganci technologiczni podejmują etyczne decyzje projektowe (53%), zabezpieczają dane osobowe (52%) lub sprawiedliwie rozważają potrzeby różnych użytkowników (51%). Jeśli chodzi o AI, 47% ma małe zaufanie do firm technologicznych podejmujących odpowiedzialne decyzje dotyczące jego użycia.
Pomimo tych obaw, nastolatkowie mocno popierają środki ochronne dla generatywnego AI. Niemal trzy na cztery osoby (74%) opowiadają się za ochroną prywatności i przejrzystością, podczas gdy 73% uważa, że treści generowane przez AI powinny być oznaczone lub znakowane wodnymi. Dodatkowo, 61% chce, aby twórcy treści byli wynagradzani, gdy modele AI wykorzystują ich prace do treningu.
CNN zauważa, że nieufność nastolatków wobec Big Tech odzwierciedla szersze niezadowolenie z dużych amerykańskich firm technologicznych. Amerykańscy dorośli również zmagają się z rosnącym poziomem wprowadzających w błąd lub fałszywych treści, pogarszanych przez osłabienie cyfrowych zabezpieczeń.
W miarę jak generatywne AI przekształca cyfrowy krajobraz, zwalczanie dezinformacji i przywracanie zaufania wymaga współpracy pomiędzy firmami technologicznymi, edukatorami, decydentami i nastolatkami.
Wzmocnienie cyfrowej umiejętności czytania i pisania oraz wprowadzenie jasnych standardów zarządzania AI będzie kluczowe dla zapewnienia bardziej przejrzystego i godnego zaufania środowiska online.
Zostaw komentarz
Anuluj odpowiedź