OpenAI opóźnia wdrożenie systemu znaków wodnych ChatGPT z powodu wewnętrznych nieporozumień

Image by Jernej Furman from: Wikimedia Commons

OpenAI opóźnia wdrożenie systemu znaków wodnych ChatGPT z powodu wewnętrznych nieporozumień

Przeczytasz w: 2 min

Według Wall Street Journal, OpenAI rozważa wprowadzenie systemu znakowania wodnego, mającego na celu wykrywanie tekstu generowanego przez jego AI ChatGPT. Mimo posiadania tej technologii gotowej od około roku, wewnętrzne nieporozumienia opóźniły jej wdrożenie.

W swoim niedawno zaktualizowanym poście, OpenAI stwierdza, że ich metoda znakowania wodnego tekstu jest skuteczna przeciwko lokalnym próbom manipulacji. Jest jednak podatna na manipulacje globalne. Obejmuje to metody takie jak korzystanie z systemów tłumaczeń, przepisywanie za pomocą innego modelu generującego, lub wprowadzanie, a następnie usuwanie specjalnego znaku pomiędzy każdym słowem.

Kolejnym poważnym problemem dla OpenAI jest to, że ich badania sugerują, że metoda znakowania wodnego tekstu może wpływać na niektóre grupy bardziej niż na inne. Na przykład, może stygmatyzować korzystanie z AI jako narzędzia do pisania dla osób, które nie są native speakers języka angielskiego.

OpenAI priorytetowo traktuje wprowadzanie rozwiązań dotyczących pochodzenia treści audio-wizualnych, ze względu na wyższe poziomy ryzyka związane z obecnymi modelami AI, szczególnie podczas roku wyborczego w USA, jak podaje Wall Street Journal. Firma przeprowadziła obszerne badania nad pochodzeniem tekstu, badając rozwiązania takie jak klasyfikatory, znakowanie wodne i metadane.

Rzecznik OpenAI powiedział TechCrunch, „Metoda znakowania tekstu, którą rozwijamy, jest technicznie obiecująca, ale wiąże się z poważnymi ryzykami, które rozważamy podczas badania alternatyw, w tym podatność na obejście przez złoczyńców oraz potencjalny dysproporcjonalny wpływ na grupy takie jak osoby nie mówiące po angielsku.”

TechCrunch również informuje, że znakowanie tekstu przez OpenAI miałoby na celu konkretnie tekst generowany przez ChatGPT, a nie treść pochodzącą z innych modeli. Obejmuje to subtelne zmiany w sposobie, w jaki ChatGPT wybiera słowa, tworząc niewidoczny znak wodny, który może być wykryty przez oddzielne narzędzie.

Ankieta przeprowadzona przez firmę, o której donosi Wall Street Journal, wykazała, że prawie jedna trzecia lojalnych użytkowników ChatGPT byłaby zniechęcona przez technologię przeciwdziałającą oszustwom. To stawia OpenAI w trudnej sytuacji. Pracownicy są rozdarczy między zachowaniem transparentności a chęcią przyciągnięcia i zatrzymania użytkowników.

W wpisie na blogu OpenAI podkreślają, że wraz ze wzrostem objętości generowanego tekstu, znaczenie wiarygodnych metod pochodzenia treści tekstowych staje się coraz bardziej kluczowe.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Pokaż więcej...