Szef Instagrama ostrzega przed udostępnianiem treści generowanych przez sztuczną inteligencję
Szef Instagrama, Adam Mosseri, opublikował w ostatnią niedzielę serię postów na Threads, ostrzegając użytkowników przed udostępnianiem treści w mediach społecznościowych, ponieważ generatywna sztuczna inteligencja może tworzyć obrazy, które wyglądają na prawdziwe. Mosseri przyznał, że mają ograniczenia w oznaczaniu wszystkich treści generowanych przez AI.
Spieszysz się? Oto najważniejsze informacje!
- Adam Mosseri, szef Instagrama, ostrzegał przed sztuczną inteligencją generującą realistyczne obrazy, które mogą być postrzegane jako prawdziwe
- Mosseri zachęcał użytkowników do bardziej krytycznego podejścia do konsumowanych treści na swoich platformach społecznościowych
- Meta pracuje nad etykietowaniem treści generowanych przez AI, ale napotykają na wyzwania i ograniczenia
Mosseri – który pracuje dla Meta od 2008 roku – wyjaśnił, że realistyczne kreacje AI są teraz łatwo tworzone i użytkownicy powinni rozważyć wiarygodność konta dostarczającego informacje, zanim podzielą się nimi z innymi.
Dyrektor porównał ogromne produkcje filmowe, takie jak Park Jurajski, z obecnymi technologiami i uznał jakość i szybkość zaawansowanej technologii AI.
„Generatywne AI zdecydowanie produkuje treści, które są trudne do odróżnienia od nagrań rzeczywistości, a ich jakość szybko się poprawia” – napisała Mosseri w jednym z postów.
Mosseri również przyznaje, że nie są w stanie przefiltrować i kontrolować wszystkich obrazów oraz treści generowanych przez AI, które są udostępniane.
„Naszą rolą jako platform internetowych jest etykietowanie treści generowanych przez AI tak dobrze, jak potrafimy,” dodał. „Ale niektóre treści nieuchronnie przesączą się przez szczeliny, a nie wszystkie nieprawdziwe przedstawienia będą generowane za pomocą AI, więc musimy również dostarczyć kontekst na temat tego, kto udostępnia, abyś mógł sam ocenić, ile chcesz zaufać ich treściom.”
Szef Instagrama podkreślił, że użytkownicy powinni być bardziej krytyczni podczas konsumpcji treści, zastanawiać się, czy podane stwierdzenia mogą być prawdziwe, a także „zawsze zastanowić się, kto jest tym, który mówi”.
Wiele osób odpowiedziało i narzekało na brak większej odpowiedzialności ze strony firmy za sytuację. „Nie widziałem, aby żadna platforma meta oznaczyła choćby jeden post jako AI, poza -dobrowolnymi- etykietami na IG umieszczonymi przez autora posta”, napisał jeden z użytkowników. „Mieliście lata i lata, aby wyprzedzić to… Ale zamiast tego, schowaliście głowę w piasek i zignorowaliście każdego z waszych użytkowników, którzy zgłaszali to dla was”, napisał inny.
Użytkownicy zgłaszali również w tym roku, że system regulacji treści Meta nie działa poprawnie, ponieważ blokował konta z niewłaściwych powodów.
Zostaw komentarz
Anuluj odpowiedź