Luki w zakazach UE dotyczących AI mogą pozwolić policji na korzystanie z kontrowersyjnych technologii
Nowe rozporządzenie UE dotyczące sztucznej inteligencji ma na celu jej regulację, ale spotyka się z krytyką ze względu na luki prawne, wyjątki i wpływ korporacji.
Śpieszysz się? Oto szybkie fakty!
- Krytycy twierdzą, że prawo ma luki, zwłaszcza dla organów ścigania i służb migracyjnych.
- Wyjątki pozwalają na praktyki związane z AI, takie jak rozpoznawanie twarzy i detekcję emocji w czasie rzeczywistym w niektórych przypadkach.
- Grupy walczące o prawa cyfrowe ostrzegają, że wyjątki w prawie osłabiają ochronę przed nadużyciami.
Nowy Akt AI Unii Europejskiej stanowi znaczący krok w regulacji sztucznej inteligencji. Pierwsze na świecie prawo zakazuje pewnych „nieakceptowalnych” zastosowań technologii AI, mając na celu ochronę obywateli i zachowanie demokratycznych wartości.
Wśród zakazów znajdują się prognozowanie działań policyjnych, pobieranie obrazów twarzy z internetu do rozpoznawania oraz wykorzystywanie AI do wykrywania emocji na podstawie danych biometrycznych. Jednak krytycy argumentują, że prawo zawiera istotne luki, szczególnie jeśli chodzi o organy ścigania i migracji.
Chociaż Akt o AI zakazuje zasady korzystania z pewnych zastosowań AI, zawiera wyjątki, które mogą pozwolić europejskim organom ścigania i migracji na kontynuowanie kontrowersyjnych praktyk związanych z AI, jak pierwotnie zgłosiło Politico.
Na przykład, rozpoznawanie twarzy w czasie rzeczywistym w miejscach publicznych, choć w dużej mierze zakazane, może być nadal dozwolone w wyjątkowych przypadkach, takich jak poważne śledztwa kryminalne.
Podobnie, wykrywanie emocji w miejscach publicznych jest zabronione, ale mogą być robione wyjątki dla celów egzekwowania prawa i migracji, co budzi obawy co do potencjalnego wykorzystania AI do identyfikowania oszustw na granicach.
Szerokie wyjątki przewidziane w prawie wzbudziły niepokój wśród grup zajmujących się cyfrowymi prawami człowieka. Koalicja 22 organizacji ostrzega, że Akt AI nie radzi sobie adekwatnie z problemami związanymi z wykorzystaniem tej technologii przez organy ścigania.
„Najbardziej rażącą luką jest fakt, że zakazy nie dotyczą organów ścigania i migracyjnych”, powiedziała Caterina Rodelli, analityk ds. polityki UE w Access Now, jak podaje Politico.
Akt AI Unii Europejskiej zabrania również wykorzystywania sztucznej inteligencji do kontroli społecznej, środek ten został wprowadzony, aby zapobiec wykorzystaniu AI do podważania indywidualnych wolności lub demokracji.
Brando Benifei, włoski legislator zaangażowany w opracowanie ustawodawstwa, wyjaśnił, że celem jest uniknięcie wykorzystania technologii AI do „kontroli społecznej” lub „ograniczania naszych wolności”, jak donosi Politico.
Według Politico, to stanowisko zostało ukształtowane przez głośne incydenty, takie jak kontrowersyjne zastosowanie sztucznej inteligencji przez holenderski urząd skarbowy w celu identyfikacji oszustw w 2019 roku, który niesłusznie oskarżył około 26,000 osób o oszustwo.
W tym przypadku, władze użyły algorytmu do wykrywania potencjalnych oszustw związanych z zasiłkami na opiekę nad dziećmi, ale wadliwy algorytm doprowadził do powszechnych błędnych identyfikacji i zaszkodził życiu niewinnych obywateli.
Kontrowersje związane z tym wydarzeniem odegrały kluczową rolę w kształtowaniu ograniczeń prawa dotyczących prognostycznej policji i innych form nadużywania AI.
Tymczasem raport Corporate Europe Observatory (CEO) budzi obawy dotyczące wpływu dużych firm technologicznych na rozwój standardów AI w UE. Raport ujawnia, że ponad połowa członków Wspólnego Komitetu Technicznego ds. AI (JTC21), odpowiedzialnego za ustalanie standardów AI, reprezentuje korporacyjne lub doradcze interesy.
Duże firmy, takie jak Oracle, Microsoft, Amazon i Google, opowiadają się za łagodniejszymi regulacjami, które priorytetowo traktują ich interesy komercyjne, a nie ochronę podstawowych praw czy dobrobytu społeczeństwa.
Ten korporacyjny wpływ wzbudził obawy, że Akt o AI UE mógłby zostać podważony przez interesy przemysłowe skoncentrowane na zyskowności kosztem etycznych rozważań. Dodatkowo, przedstawiciele społeczeństwa obywatelskiego i środowiska akademickiego stoją przed finansowymi i logistycznymi wyzwaniami, uczestnicząc w procesie ustalania standardów.
Raport podkreśla brak przejrzystości i demokratycznej odpowiedzialności w organizacjach ustalających standardy, takich jak CEN i CENELEC, co budzi obawy o sprawiedliwość i inkluzywność procesu tworzenia standardów.
Chociaż Akt AI stawia UE na czele globalnej regulacji AI, trwająca debata na temat jego luk sugeruje, że zrównoważenie innowacyjności z ochroną praw człowieka będzie delikatnym zadaniem w przyszłości.
Zostaw komentarz
Anuluj odpowiedź