OpenAI Udostępni Amerykańskiemu Instytutowi Bezpieczeństwa Wczesny Dostęp Do Nowych Modeli
Sam Altman, dyrektor generalny OpenAI, ogłosił dziś na X, że firma udostępni wczesny dostęp do nadchodzącego podstawowego modelu dla amerykańskiego Instytutu Bezpieczeństwa Sztucznej Inteligencji.
„Jak powiedzieliśmy w lipcu ubiegłego roku, jesteśmy zobowiązani do przeznaczenia co najmniej 20% zasobów obliczeniowych na działania związane z bezpieczeństwem w całej firmie”, napisał Altman, „Nasz zespół pracował z amerykańskim Instytutem Bezpieczeństwa AI nad umową, na mocy której udostępnilibyśmy wczesny dostęp do naszego następnego modelu podstawowego, abyśmy mogli wspólnie przesuwać granice nauki o ocenach AI.”
Altman oznajmił, że podzielił się tą decyzją z entuzjazmem i dodał, że chcą, aby obecni i byli pracownicy wyrażali swoje obawy dotyczące technologii AI, które firma rozwija. Podkreślił, że było to ważne dla firmy i jej planu bezpieczeństwa.
Według TechCrunch, Amerykański Instytut Bezpieczeństwa Sztucznej Inteligencji – część Narodowego Instytutu Norm i Technologii (NIST) – analizuje i ocenia ryzyko na platformach AI, a OpenAI już pracowało nad podobnym porozumieniem z Wielką Brytanią zaledwie kilka tygodni temu.
Ogłoszenie Altmanna pojawiło się po tym, jak ludzie i organizacje skrytykowali środki bezpieczeństwa firmy. W czerwcu wielu obecnych i byłych pracowników OpenAI podpisało list otwarty, aby wyrazić swoje obawy i ostrzec przed rozprzestrzenianiem dezinformacji przez AI oraz przed staniem się ona zagrożeniem dla społeczeństwa. Wielu pracowników również opuściło firmę z powodu obaw o bezpieczeństwo, w tym kluczowego badacza OpenAI, Jan Leike, po tym jak OpenAI rozwiązało zespół Superalignment, odpowiedzialny za zajmowanie się zagrożeniami związanymi z AI.
Pomimo obaw o bezpieczeństwo, OpenAI nie przestaje się rozwijać. Firma właśnie uruchomiła funkcję głosową dla ChatGPT Plus, a nowa wyszukiwarka napędzana przez AI o nazwie SearchGPT jest dostępna dla wybranych użytkowników.
Nowe działania mające na celu wprowadzenie środków bezpieczeństwa zdają się dowodzić, że Altman i jego zespół nie zapomnieli o ryzyku i obawach związanych z AI.
Zostaw komentarz
Anuluj odpowiedź