UNECE Wydaje Deklarację na Temat Produktów z Wbudowaną Sztuczną Inteligencją
Spieszysz się? Oto krótkie fakty!
- Deklaracja promuje globalną współpracę regulacyjną dla technologii AI.
- Produkty AI o wysokim ryzyku wymagają rygorystycznego nadzoru, podczas gdy produkty o niskim ryzyku wymagają minimalnej kontroli.
- Nadzór rynkowy musi dostosować się do ewoluującej natury technologii AI.
Dzisiaj Komisja Gospodarcza Narodów Zjednoczonych dla Europy (UNECE) ogłosiła deklarację, która adresuje wyzwania regulacyjne stawiane przez AI i technologie cyfrowe wbudowane w codzienne produkty i usługi. Ta inicjatywa ma na celu zwiększenie globalnej spójności regulacyjnej wobec złożoności nowo powstających technologii.
Korzystając z Ogólnych Wspólnych Porozumień Regulacyjnych (CRA), deklaracja zachęca do dobrowolnej współpracy regulacyjnej między rządami, jednocześnie zabezpieczając globalny handel i postęp technologiczny.
Deklaracja podkreśla rozpowszechnienie produktów wykorzystujących wbudowaną sztuczną inteligencję i technologie cyfrowe, ale zauważa brak spójnych definicji i regulacji.
Chociaż CRA stwierdza, że nie obejmuje pojazdów autonomicznych czy broni, jego wytyczne pozostają istotne dla tych sektorów.
Deklaracja podkreśla znaczenie zarządzania ryzykiem związanym z produktami, które zawierają wbudowaną sztuczną inteligencję lub inne technologie cyfrowe. Deklaracja mówi, że całkowite wyeliminowanie wszystkich ryzyk jest nierealne; zamiast tego, regulacje powinny dążyć do zarządzania ryzykiem w ramach akceptowalnych limitów.
Produkty o wysokim stopniu ryzyka, zwłaszcza te mające wpływ na zdrowie, bezpieczeństwo czy prywatność, będą wymagały rygorystycznego nadzoru. Produkty o średnim stopniu ryzyka, które mogą stanowić zagrożenie dla bezpieczeństwa użytkowników, ale nie obejmują danych osobowych, będą wymagały umiarkowanego monitoringu. W przeciwieństwie do nich, produkty o niskim stopniu ryzyka, które nie korzystają z danych osobowych ani bezpośrednio nie wpływają na użytkowników, będą wymagały minimalnego nadzoru.
Deklaracja dotycząca systemów AI o wysokim ryzyku postuluje uwzględnienie ludzkiego procesu decyzyjnego tam, gdzie jest to możliwe. Na przykład, urządzenia medyczne wykorzystujące AI do diagnostyki powinny angażować ludzką ocenę, aby zminimalizować ryzyko dla pacjentów, podczas gdy przemysłowe maszyny zasilane przez AI powinny umożliwiać nadzór ludzi w miejscu pracy.
Biorąc pod uwagę nieprzewidywalną naturę technologii AI, deklaracja podkreśla konieczność rygorystycznych testów, jednocześnie uznając trwałość nieznanych ryzyk. Regulatorzy i dystrybutorzy są zachęcani do ujawniania tych pozostałych ryzyk i zapewnienia, że pozostają one pod kontrolą.
Aby zapobiec szkodom, wbudowane systemy AI muszą zająć się uprzedzeniami w podejmowaniu decyzji, odzwierciedlając zarówno uprzedzenia ludzkie, jak i maszynowe.
Deklaracja dalej stwierdza, że te systemy powinny szanować autonomię człowieka, dobrostan psychiczny i wartości społeczne, w tym prawa dzieci, oraz skutecznie funkcjonować w rozwijających się gospodarkach, nie tworząc barier handlowych.
Funkcje bezpieczeństwa są kluczowe dla technologii AI, aby zapobiegać jej nadużywaniu. Oceny zgodności z regulacjami są niezbędne dla produktów AI, gdzie przedmioty niskiego ryzyka mogą wymagać jedynie samodeklaracji dostawcy, natomiast produkty o wysokim ryzyku powinny przejść oceny wykonane przez stronę trzecią, aby zweryfikować zgodność z międzynarodowymi standardami.
Dodatkowo, deklaracja przekonuje, że nadzór rynkowy musi ewoluować, aby nadążać za dynamiczną naturą AI. Ciągłe kontrole zgodności są niezbędne, szczególnie gdy produkty otrzymują aktualizacje.
Niezależne audyty powinny potwierdzać, że produkty spełniają początkowe standardy i są bezpieczne do użytku. Produkty niezgodne, zwłaszcza te, które stanowią poważne ryzyko, powinny być wycofywane, a w przypadku poważnych problemów powinny być wydawane międzynarodowe ostrzeżenia.
Zostaw komentarz
Anuluj odpowiedź