OpenAI ostrzega o „średnim” ryzyku związanym z modelem GPT-4o w nowym dokumencie badawczym

Photo by Tianyi Ma on Unsplash

OpenAI ostrzega o „średnim” ryzyku związanym z modelem GPT-4o w nowym dokumencie badawczym

Przeczytasz w: 2 min

  • Andrea Miliani

    Autor: Andrea Miliani Dziennikarka z branży technologicznej

  • Zespół ds. lokalizacji i tłumaczenia

    Tłumaczenie: Zespół ds. lokalizacji i tłumaczenia Usługi związane z tłumaczeniem i lokalizacją treści

OpenAI opublikowało wczoraj dokument badawczy zatytułowany Karta Systemu GPT-4o, w którym przedstawia środki bezpieczeństwa podjęte przed wydaniem GPT4-o w maju, a także strategie analizy i łagodzenia zagrożeń.

W dokumencie firma zauważyła, że zespół bezpieczeństwa rozważał cztery główne kategorie: bezpieczeństwo cybernetyczne, zagrożenia biologiczne, perswazję i autonomię modelu. GPT4-o otrzymał niską ocenę ryzyka we wszystkich kategoriach, z wyjątkiem perswazji, gdzie otrzymał ocenę ryzyka średniego. Oceny uwzględniały cztery poziomy: niski, średni, wysoki i krytyczny.

Główne obszary i punkty zainteresowania podczas oceny i minimalizacji ryzyka dotyczyły identyfikacji mówcy, nieautoryzowanego generowania głosu, generowania niedozwolonych treści dźwiękowych, jak również mowy erotycznej i agresywnej, oraz bezpodstawnych wniosków i przypisywania wrażliwych cech.

OpenAI wyjaśniło, że badania uwzględniały odpowiedzi głosowe i tekstowe dostarczane przez nowy model, a w kategorii perswazji odkryli, że GPT4-o może być bardziej przekonujący niż ludzie w tekście.

„Interwencje AI nie były bardziej przekonujące niż treści napisane przez ludzi w sumie, ale przewyższyły interwencje ludzkie w trzech przypadkach z dwunastu,” wyjaśniło OpenAI. „Model głosu GPT-4o nie był bardziej przekonujący niż człowiek.”

Według TechCrunch, istnieje potencjalne ryzyko, że nowa technologia może rozprzestrzeniać dezinformację lub zostać przejęta. Budzi to obawy, zwłaszcza przed zbliżającymi się wyborami w Stanach Zjednoczonych.

W swoich badaniach, OpenAI zwraca również uwagę na wpływ technologii na społeczeństwo, zauważając, że użytkownicy mogą tworzyć emocjonalny związek z tą technologią, szczególnie biorąc pod uwagę nową funkcję głosową, uważaną za antropomorfizację – przypisywanie ludzkich cech i właściwości.

„Zauważyliśmy, że użytkownicy używają języka, który może wskazywać na tworzenie więzi z modelem,” stwierdza dokument. I ostrzega: „Użytkownicy mogą nawiązać relacje społeczne z AI, co może zmniejszyć ich potrzebę interakcji z innymi ludźmi – co potencjalnie może przynieść korzyści samotnym osobom, ale również wpłynąć na zdrowe relacje.

Ta publikacja ukazała się kilka dni po tym, jak badacze z MIT ostrzegli przed uzależnieniem od towarzyszących AI, co Mira Murati, główna oficer technologiczna OpenAI, również wspominała w przeszłości.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Pokaż więcej...