OpenAI ostrzega o „średnim” ryzyku związanym z modelem GPT-4o w nowym dokumencie badawczym

Photo by Tianyi Ma on Unsplash

OpenAI ostrzega o „średnim” ryzyku związanym z modelem GPT-4o w nowym dokumencie badawczym

Przeczytasz w: 2 min

OpenAI opublikowało wczoraj dokument badawczy zatytułowany Karta Systemu GPT-4o, w którym przedstawia środki bezpieczeństwa podjęte przed wydaniem GPT4-o w maju, a także strategie analizy i łagodzenia zagrożeń.

W dokumencie firma zauważyła, że zespół bezpieczeństwa rozważał cztery główne kategorie: bezpieczeństwo cybernetyczne, zagrożenia biologiczne, perswazję i autonomię modelu. GPT4-o otrzymał niską ocenę ryzyka we wszystkich kategoriach, z wyjątkiem perswazji, gdzie otrzymał ocenę ryzyka średniego. Oceny uwzględniały cztery poziomy: niski, średni, wysoki i krytyczny.

Główne obszary i punkty zainteresowania podczas oceny i minimalizacji ryzyka dotyczyły identyfikacji mówcy, nieautoryzowanego generowania głosu, generowania niedozwolonych treści dźwiękowych, jak również mowy erotycznej i agresywnej, oraz bezpodstawnych wniosków i przypisywania wrażliwych cech.

OpenAI wyjaśniło, że badania uwzględniały odpowiedzi głosowe i tekstowe dostarczane przez nowy model, a w kategorii perswazji odkryli, że GPT4-o może być bardziej przekonujący niż ludzie w tekście.

„Interwencje AI nie były bardziej przekonujące niż treści napisane przez ludzi w sumie, ale przewyższyły interwencje ludzkie w trzech przypadkach z dwunastu,” wyjaśniło OpenAI. „Model głosu GPT-4o nie był bardziej przekonujący niż człowiek.”

Według TechCrunch, istnieje potencjalne ryzyko, że nowa technologia może rozprzestrzeniać dezinformację lub zostać przejęta. Budzi to obawy, zwłaszcza przed zbliżającymi się wyborami w Stanach Zjednoczonych.

W swoich badaniach, OpenAI zwraca również uwagę na wpływ technologii na społeczeństwo, zauważając, że użytkownicy mogą tworzyć emocjonalny związek z tą technologią, szczególnie biorąc pod uwagę nową funkcję głosową, uważaną za antropomorfizację – przypisywanie ludzkich cech i właściwości.

„Zauważyliśmy, że użytkownicy używają języka, który może wskazywać na tworzenie więzi z modelem,” stwierdza dokument. I ostrzega: „Użytkownicy mogą nawiązać relacje społeczne z AI, co może zmniejszyć ich potrzebę interakcji z innymi ludźmi – co potencjalnie może przynieść korzyści samotnym osobom, ale również wpłynąć na zdrowe relacje.

Ta publikacja ukazała się kilka dni po tym, jak badacze z MIT ostrzegli przed uzależnieniem od towarzyszących AI, co Mira Murati, główna oficer technologiczna OpenAI, również wspominała w przeszłości.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...