Jak YouTuberka Oszukuje Boty AI, które Kradną Jej Treści
YouTuberka stawia twórczy opór przeciwko modelom AI, które bez pozwolenia pobierają i wykorzystują treści z internetu.
Spieszysz się? Oto szybkie fakty!
- Youtuberka ukrywa nonsensowny tekst w napisach, aby dezorientować narzędzia do skanowania treści AI.
- Sumaryzatory AI mają problemy z odfiltrowaniem bzdur, generując nieprecyzyjne podsumowania filmów.
- Technika ta zakłóca skanowanie AI, ale nie jest niezawodna wobec zaawansowanych narzędzi do transkrypcji.
F4mi, twórczyni znana z dogłębnych filmów na temat mało znanej technologii, opracowała metodę zakłócania działania AI, które podsumowują teksty, poprzez wypełnianie swoich transkryptów mylącym, dezorientującym dla maszyn tekstem, jednocześnie utrzymując jego czytelność dla ludzkich widzów. Pierwszy o tym doniósł ArsTechnica.
Wzrost popularności kanałów YouTube generowanych przez AI, które są „beztwarzowe”, stał się rosnącym problemem dla wielu twórców treści, jak zauważa Medium. Te kanały często korzystają z narzędzi AI do generowania scenariuszy, voiceoverów i wizualizacji, często czerpiąc materiały z istniejących filmów, aby w mgnieniu oka stworzyć kopie.
Wielu YouTuberów zgłaszało, że ich prace są kopiowane i przeznaczane do innego celu, z modelami AI bezpośrednio czerpiącymi z ich transkryptów filmów.
Aby przeciwdziałać temu, F4mi zwróciła się ku kilkudziesięcioletniemu formatowi napisów o nazwie .ass, pierwotnie opracowanemu dla fanów anime. W przeciwieństwie do standardowych plików z napisami, .ass obsługuje zaawansowane opcje formatowania, takie jak niestandardowe czcionki, kolory i pozycjonowanie.
Wykorzystując te funkcje, F4mi umieszcza dodatkowy tekst w swoich napisach, niewidoczny dla ludzkich widzów, ale bardzo zakłócający działanie narzędzi do skrapowania AI.
Jej metoda polega na umieszczaniu dodatkowego tekstu poza widocznymi granicami ekranu, wykorzystując triki formatujące, które sprawiają, że słowa stają się niewidoczne i nieczytelne dla ludzi. Wstawiony tekst zawiera fragmenty z domeny publicznej z drobnymi zmianami słów, a także nonsensowne twory generowane przez AI, które mają na celu zasypać narzędzia do tworzenia streszczeń.
Gdy AI próbuje wydobyć i podsumować te napisy, kończy się to zniekształconą, nieprecyzyjną wersją oryginalnej treści.
F4mi odkryła, że podczas gdy podstawowe narzędzia AI miały problemy z jej metodą, bardziej zaawansowane modele, takie jak Whisper od OpenAI, nadal były w stanie wydobyć istotne informacje.
Aby przeciwdziałać temu, eksperymentowała z dalszym zaciemnianiem tekstu na poziomie pliku, jednocześnie utrzymując jego czytelność podczas odtwarzania, dodając kolejną warstwę złożoności dla AI próbującego go zinterpretować.
ArsTechnica zauważa, że YouTube nie obsługuje natywnie napisów .ass, więc F4mi musiała przekonwertować swoje napisy na format .ytt YouTube. Ten obejście jednak wiązało się z pewnymi wadami, szczególnie na urządzeniach mobilnych, gdzie zmienione napisy czasami pojawiały się jako czarne pudełka.
Aby poradzić sobie z tym problemem, opracowała skrypt w Pythonie, który ukrywa jej mylący tekst jako napisy czarne na czarnym, widoczne tylko gdy ekran przyciemnia się do czerni.
Pomimo tych wysiłków, F4mi przyznaje, że jej metoda nie jest niezawodna. Sztuczna inteligencja nadal może generować transkrypcje bezpośrednio z ścieżki audio, a zaawansowane czytniki ekranowe mogą wydobywać widoczny tekst z filmów.
Mimo to, jej eksperyment podkreśla rosnący opór twórców treści przeciwko modelom AI, które bez zgody gromadzą materiały z internetu. W miarę jak treści generowane przez AI nadal się rozprzestrzeniają, innowacyjne środki zaradcze, takie jak te stosowane przez F4mi, mogą stać się coraz bardziej powszechne.
Zostaw komentarz
Anuluj odpowiedź