Detektor Fałszywych Wiadomości o 99% Skuteczności Ogłoszony przez Badaczy z Keele University
Badacze z Keele University opracowali narzędzie, które z 99% dokładnością jest w stanie wykrywać fałszywe wiadomości, oferując potencjalne rozwiązanie rosnącego problemu dezinformacji w sieci. Rozwój został ogłoszony wczoraj przez uniwersytet.
W pośpiechu? Oto najważniejsze informacje!
- Badacze z Uniwersytetu Keele opracowali narzędzie wykrywające fałszywe wiadomości z dokładnością 99%.
- Narzędzie korzysta z systemu „głosowania zespołowego”, łączącego wiele modeli uczenia maszynowego.
- Narzędzie ocenia treść wiadomości, aby określić wiarygodność źródła.
Zespół, w skład którego wchodzą Dr Uchenna Ani, Dr Sangeeta Sangeeta i Dr Patricia Asowo-Ayobode z Wydziału Informatyki i Matematyki, zastosował różne techniki uczenia maszynowego, aby stworzyć model zdolny do analizowania treści wiadomości w celu oceny ich wiarygodności.
Narzędzie korzysta z podejścia „ensemble voting”, które łączy prognozy z wielu modeli uczenia maszynowego, aby wydać ogólną ocenę, czy źródło informacji jest godne zaufania. Początkowe testy pokazały, że metoda przewyższyła oczekiwania, identyfikując fałszywe wiadomości w 99% przypadków.
Dr Ani, wykładowca z zakresu cyberbezpieczeństwa na Keele, podkreślił wyzwania stawiane przez dezinformację. Zauważył, że szeroko rozpowszechnione fałszywe informacje podważają dyskurs publiczny i mogą wpływać na postawy i zachowania, stwarzając ryzyko dla bezpieczeństwa zarówno lokalnego, jak i narodowego.
Badacze mają nadzieję na dalsze udoskonalenie modelu wraz z postępem technologii AI i uczenia maszynowego, dążąc do jeszcze większej precyzji w identyfikowaniu niewiarygodnych treści. Dr Ani podkreśliła pilność opracowania rozwiązań mających na celu ochronę wiarygodności platform online, zwłaszcza mediów społecznościowych, gdzie dezinformacja jest najbardziej rozpowszechniona.
Wstępne badania przeprowadzone przez Democracy Reporting International (DRI), organizację promującą demokrację z siedzibą w Berlinie, ostrzegły, że systemy AI, zwłaszcza otwarte modele językowe o dużym zasięgu (LLM), stwarzają znaczne ryzyko rozprzestrzeniania dezinformacji.
DRI twierdzi, że te ryzyka pojawiają się, ponieważ te modele, takie jak Dolly, Zephyr i Falcon, są często wprowadzane na rynek bez solidnych zabezpieczeń, co czyni je podatnymi na nadużycia.
Ich dostępność wymaga minimalnych umiejętności technicznych, co umożliwia złośliwym osobom manipulację nimi w celu tworzenia fałszywych narracji lub mowy nienawiści. Ta niska bariera wejścia zwiększa ryzyko rozprzestrzeniania się dezinformacji.
Dodatkowo, DRI informuje, że otwarte źródła LLM, takie jak Zephyr, wykazują niepokojące zdolności, takie jak generowanie strukturalnych, przekonywujących, złośliwych treści w odpowiedzi na bezpośrednie lub sugestywne polecenia.
Takie wyniki są często spójne i adekwatne kontekstualnie, co czyni je szczególnie niebezpiecznymi w kształtowaniu fałszywych narracji. Co więcej, uprzedzenia wbudowane w te modele, często odzwierciedlające społeczne uprzedzenia, dodatkowo zwiększają ryzyko rozprzestrzeniania szkodliwych stereotypów.
Podczas gdy jest jeszcze w fazie rozwoju, narzędzie opracowane na Uniwersytecie Keele stanowi krok w kierunku rozwiązania szerszego problemu dezinformacji w komunikacji cyfrowej.
Zostaw komentarz
Anuluj odpowiedź