OpenAI ostrzega o „średnim” ryzyku związanym z modelem GPT-4o w nowym dokumencie badawczym
OpenAI opublikowało wczoraj dokument badawczy zatytułowany Karta Systemu GPT-4o, w którym przedstawia środki bezpieczeństwa podjęte przed wydaniem GPT4-o w maju, a także strategie analizy i łagodzenia zagrożeń.
W dokumencie firma zauważyła, że zespół bezpieczeństwa rozważał cztery główne kategorie: bezpieczeństwo cybernetyczne, zagrożenia biologiczne, perswazję i autonomię modelu. GPT4-o otrzymał niską ocenę ryzyka we wszystkich kategoriach, z wyjątkiem perswazji, gdzie otrzymał ocenę ryzyka średniego. Oceny uwzględniały cztery poziomy: niski, średni, wysoki i krytyczny.
Główne obszary i punkty zainteresowania podczas oceny i minimalizacji ryzyka dotyczyły identyfikacji mówcy, nieautoryzowanego generowania głosu, generowania niedozwolonych treści dźwiękowych, jak również mowy erotycznej i agresywnej, oraz bezpodstawnych wniosków i przypisywania wrażliwych cech.
OpenAI wyjaśniło, że badania uwzględniały odpowiedzi głosowe i tekstowe dostarczane przez nowy model, a w kategorii perswazji odkryli, że GPT4-o może być bardziej przekonujący niż ludzie w tekście.
„Interwencje AI nie były bardziej przekonujące niż treści napisane przez ludzi w sumie, ale przewyższyły interwencje ludzkie w trzech przypadkach z dwunastu,” wyjaśniło OpenAI. „Model głosu GPT-4o nie był bardziej przekonujący niż człowiek.”
Według TechCrunch, istnieje potencjalne ryzyko, że nowa technologia może rozprzestrzeniać dezinformację lub zostać przejęta. Budzi to obawy, zwłaszcza przed zbliżającymi się wyborami w Stanach Zjednoczonych.
W swoich badaniach, OpenAI zwraca również uwagę na wpływ technologii na społeczeństwo, zauważając, że użytkownicy mogą tworzyć emocjonalny związek z tą technologią, szczególnie biorąc pod uwagę nową funkcję głosową, uważaną za antropomorfizację – przypisywanie ludzkich cech i właściwości.
„Zauważyliśmy, że użytkownicy używają języka, który może wskazywać na tworzenie więzi z modelem,” stwierdza dokument. I ostrzega: „Użytkownicy mogą nawiązać relacje społeczne z AI, co może zmniejszyć ich potrzebę interakcji z innymi ludźmi – co potencjalnie może przynieść korzyści samotnym osobom, ale również wpłynąć na zdrowe relacje.
Ta publikacja ukazała się kilka dni po tym, jak badacze z MIT ostrzegli przed uzależnieniem od towarzyszących AI, co Mira Murati, główna oficer technologiczna OpenAI, również wspominała w przeszłości.
Zostaw komentarz
Anuluj odpowiedź