Opinia: Czy system regulacji bezpieczeństwa Meta jest zepsuty?
Prawie każdy twórca treści lub aktywny menedżer mediów społecznościowych spotkał się ostatnio z tym samym problemem podczas publikowania na Facebooku czy Instagramie: post lub konto jest blokowane, prawdopodobnie z niewłaściwych powodów.
Ta irytująca sytuacja jest tylko jednym z elementów skomplikowanego problemu z systemem regulacji treści Meta. Chociaż Meta wydaje się mieć wiele środków kontroli – czasem absurdalnych – korzeń problemu wydaje się nie być rozwiązany.
W ciągu ostatnich kilku miesięcy, Meta wprowadziła liczne aktualizacje swoich wytycznych dotyczących treści i zastosowała surowsze zasady mające na celu budowanie zdrowszego środowiska online. Jedną z konsekwencji było to, że wiele firm, wydawców i kont użytkowników zostało zbanowanych, co doprowadziło do setek skarg na forach, platformach czatu i kanałach mediów społecznościowych. Wielu wydawców wiadomości i marek zostało usuniętych z platform Meta w pewnych regionach w tym roku, budząc obawy wśród właścicieli firm, dziennikarzy i twórców treści.
Pomimo niedawnych aktualizacji Meta, które dają wrażenie surowszej moderacji i bliższego przyglądania się treściom udostępnianym na jej platformach, posty związane z narkotykami, samobójstwem, molestowaniem seksualnym, znęcaniem się, mową nienawiści, przemocą i fałszywymi informacjami nadal przechodzą przez algorytmy, docierając do podatnych społeczności.
Nie mogę się powstrzymać od zastanowienia: Co dzieje się z systemem regulacji bezpieczeństwa Meta?
Konta zbanowane z niewłaściwych powodów
Wszystko zaczyna się od podobnej wiadomości: „Twoje konto Meta nie przestrzega naszych zasad”. Wielu użytkowników Facebooka i Instagrama zostało zbanowanych lub tymczasowo wykluczonych z ich kont „za nieprzestrzeganie” zasad Meta, nawet jeśli sądzą, że przestrzegali.
To sytuacja, której doświadczyliśmy w Wizcase. System Meta oznaczył istotne elementy jako nieodpowiednie i zmusił menedżera społeczności do przejścia przez proces odwoławczy i dostarczenia identyfikatorów wydanych przez rząd.
Setki użytkowników, menedżerów społeczności i menedżerów kont skarżyło się na platformach takich jak Reddit i innych forach, czatach i kanałach mediów społecznościowych na podobne sytuacje. W wielu niefortunnych scenariuszach, użytkownicy tracą swoje konta i nie mogą nic na to poradzić, a nawet nie otrzymują wyjaśnień.
„Obsługa klienta na Facebooku jest okropna. Bez względu na to, ile razy im wszystko powiemy czy wszystko wyjaśnimy, po prostu nie rozumieją”, powiedział jeden z użytkowników na Reddicie w wątku dotyczącym zablokowanych kont. „Jedno mogę powiedzieć od razu – nie odzyskasz swojego konta, chyba że wydawałeś setki tysięcy dziennie”, dodał inny.
Ten problem, mimo że może wydawać się dotyczyć tylko twórców treści, jest tylko małą częścią większego wyzwania.
Meta kontra Procesy sądowe
Od lat, Meta inwestuje w moderację treści i opracowuje nowe strategie, które mają na celu stworzenie bezpieczniejszej platformy dla użytkowników i ochronę przed kolejnymi procesami sądowymi – najnowszy z nich dotyczy keńskich moderatorów treści, którzy obecnie domagają się 1,6 miliarda dolarów odszkodowania za masowe zwolnienia i za traumatyczne materiały, na które byli narażeni podczas analizy treści dla Facebooka.
Firma technologiczna polega na pomocy stron trzecich w kwestii regulacji treści i opracowuje narzędzia do rozpoznawania, kiedy treść narusza zasady platformy. Jednak te środki okazały się niewystarczające i sytuacja wymknęła się spod kontroli, szczególnie wśród nieletnich użytkowników.
W 2021 roku Meta wprowadziła nowe funkcje ochronne, ale nie powstrzymało to Senatu przed zaliczeniem Instagrama i Facebooka do platform uważanych za szkodliwe dla dzieci w ubiegłym roku. Gigant technologiczny stanął w obliczu wspólnego pozwu złożonego przez 33 stany w Stanach Zjednoczonych za manipulacyjny i szkodliwy algorytm.
Od stycznia Meta dzieli się aktualizacjami na temat nowych narzędzi kontroli bezpieczeństwa. W czerwcu firma ulepszyła swoje narzędzie przeciwdziałania nękania, aby chronić nastolatków na Instagramie, wprowadzając domyślną funkcję „Bliscy przyjaciele” z opcją „Limits”, dzięki której tylko prawdziwi przyjaciele i rodzina mogli interakcja z treścią publikowaną przez młodych użytkowników.
Zaledwie kilka dni temu, firma ogłosiła nowe Konta dla nastolatków, aby chronić młodzież i „uspokoić rodziców, że nastolatki mają bezpieczne doświadczenia”. Czy to wystarczy, aby chronić dzieci? A co z użytkownikami starszymi?
Niebezpieczny Ekosystem
Facebook, Instagram i WhatsApp nadal są opanowane przez szkodliwe treści, które wpływają na użytkowników, bez względu na ich wiek, zawód i grupy społeczne, a problem ten z pewnością nie zostanie rozwiązany w najbliższym czasie.
Badanie przeprowadzone przez Centrum zwalczania cyfrowej nienawiści (CCDH) przeanalizowało ponad 500 milionów komentarzy na Instagramie opublikowanych na kontach 10 polityczek ze Stanów Zjednoczonych i ujawniło, że Meta nie podjęła działań w celu usunięcia 93% tych komentarzy.
Wiele pozwów przeciwko Meta dosłownie dowiodło, że firma ma trudności z ochroną użytkowników przed szkodliwymi treściami, a także szkodzi twórcom, wydawcom i markom poprzez niesprawiedliwe filtry i źle wdrożone narzędzia bezpieczeństwa.
Oczywiście, jest to skomplikowana i głęboka kwestia, która powinna zostać poruszona dogłębnie, ale może nadszedł czas, aby zaakceptować, że Meta nie potrafiła poradzić sobie z tą sytuacją. Plastrowanie nie rozwiąże problemu systemu, który jest fundamentalnie zepsuty. Teraz prawdziwe pytanie brzmi: Ile jeszcze użytkowników musi zostać niesprawiedliwie zbanowanych, wprowadzonych w błąd lub zmanipulowanych, zanim nastąpi prawdziwa zmiana?
Zostaw komentarz
Anuluj odpowiedź