OpenAI opóźnia wdrożenie systemu znaków wodnych ChatGPT z powodu wewnętrznych nieporozumień
Według Wall Street Journal, OpenAI rozważa wprowadzenie systemu znakowania wodnego, mającego na celu wykrywanie tekstu generowanego przez jego AI ChatGPT. Mimo posiadania tej technologii gotowej od około roku, wewnętrzne nieporozumienia opóźniły jej wdrożenie.
W swoim niedawno zaktualizowanym poście, OpenAI stwierdza, że ich metoda znakowania wodnego tekstu jest skuteczna przeciwko lokalnym próbom manipulacji. Jest jednak podatna na manipulacje globalne. Obejmuje to metody takie jak korzystanie z systemów tłumaczeń, przepisywanie za pomocą innego modelu generującego, lub wprowadzanie, a następnie usuwanie specjalnego znaku pomiędzy każdym słowem.
Kolejnym poważnym problemem dla OpenAI jest to, że ich badania sugerują, że metoda znakowania wodnego tekstu może wpływać na niektóre grupy bardziej niż na inne. Na przykład, może stygmatyzować korzystanie z AI jako narzędzia do pisania dla osób, które nie są native speakers języka angielskiego.
OpenAI priorytetowo traktuje wprowadzanie rozwiązań dotyczących pochodzenia treści audio-wizualnych, ze względu na wyższe poziomy ryzyka związane z obecnymi modelami AI, szczególnie podczas roku wyborczego w USA, jak podaje Wall Street Journal. Firma przeprowadziła obszerne badania nad pochodzeniem tekstu, badając rozwiązania takie jak klasyfikatory, znakowanie wodne i metadane.
Rzecznik OpenAI powiedział TechCrunch, „Metoda znakowania tekstu, którą rozwijamy, jest technicznie obiecująca, ale wiąże się z poważnymi ryzykami, które rozważamy podczas badania alternatyw, w tym podatność na obejście przez złoczyńców oraz potencjalny dysproporcjonalny wpływ na grupy takie jak osoby nie mówiące po angielsku.”
TechCrunch również informuje, że znakowanie tekstu przez OpenAI miałoby na celu konkretnie tekst generowany przez ChatGPT, a nie treść pochodzącą z innych modeli. Obejmuje to subtelne zmiany w sposobie, w jaki ChatGPT wybiera słowa, tworząc niewidoczny znak wodny, który może być wykryty przez oddzielne narzędzie.
Ankieta przeprowadzona przez firmę, o której donosi Wall Street Journal, wykazała, że prawie jedna trzecia lojalnych użytkowników ChatGPT byłaby zniechęcona przez technologię przeciwdziałającą oszustwom. To stawia OpenAI w trudnej sytuacji. Pracownicy są rozdarczy między zachowaniem transparentności a chęcią przyciągnięcia i zatrzymania użytkowników.
W wpisie na blogu OpenAI podkreślają, że wraz ze wzrostem objętości generowanego tekstu, znaczenie wiarygodnych metod pochodzenia treści tekstowych staje się coraz bardziej kluczowe.
Zostaw komentarz
Anuluj odpowiedź