Obawy o sprawiedliwość wywołuje tendencja do stronniczości w brytyjskim systemie sztucznej inteligencji do wykrywania oszustw związanych z zasiłkami socjalnymi
Rząd Wielkiej Brytanii wykorzystuje system sztucznej inteligencji do wykrywania oszustw związanych z zasiłkami socjalnymi, który, jak wykazały wewnętrzne oceny, przejawia uprzedzenia ze względu na wiek, niepełnosprawność, stan cywilny i narodowość – informuje dzisiaj The Guardian.
Spieszysz się? Oto najważniejsze informacje!
- Sztuczna inteligencja wykorzystywana w UK do wykrywania oszustw w systemie opieki społecznej wykazuje uprzedzenia wobec niektórych grup demograficznych, w tym osób niepełnosprawnych.
- Wewnętrzna analiza wykazała „statystycznie znaczące” różnice w sposobie flagowania roszczeń jako potencjalnych oszustw.
- DWP twierdzi, że mimo korzystania z narzędzia AI, to nadal ludzcy pracownicy podejmują ostateczne decyzje.
System stosowany do oceny wniosków o powszechne świadczenia na terenie Anglii, niewspółmiernie często wskazuje pewne grupy do przeprowadzenia śledztwa, co budzi obawy o systemową dyskryminację – informuje The Guardian.
Uprzedzenia, opisane jako „statystycznie istotna dysproporcja wyników”, zostały ujawnione w analizie sprawiedliwości przeprowadzonej przez Departament ds. Pracy i Emerytur (DWP) w lutym.
Analiza wykazała, że program uczenia maszynowego wybierał osoby z niektórych grup demograficznych częściej niż z innych przy określaniu, kogo należy zbadać pod kątem potencjalnego oszustwa, informuje The Guardian.
To oświadczenie stoi w sprzeczności z wcześniejszymi twierdzeniami DWP, że system AI nie stanowi natychmiastowego ryzyka dyskryminacji czy niesprawiedliwego traktowania.
Departament bronił systemu, podkreślając, że ostateczne decyzje podejmują ludzcy pracownicy socjalni, a narzędzie jest „rozsądne i proporcjonalne” biorąc pod uwagę szacowany roczny koszt oszustw i błędów w systemie świadczeń, wynoszący 8 miliardów funtów, jak podaje The Guardian.
Jednakże, analiza nie badała potencjalnych uprzedzeń związanych z rasą, płcią, religią, orientacją seksualną czy ciążą, pozostawiając znaczące luki w zrozumieniu sprawiedliwości systemu.
Krytycy, w tym Public Law Project, oskarżają rząd o stosowanie podejścia „najpierw zranić, potem naprawić”, domagając się większej przejrzystości i zabezpieczeń przed nękanie grup marginalizowanych, jak podaje The Guardian.
„Jest jasne, że w zdecydowanej większości przypadków DWP nie oceniło, czy ich zautomatyzowane procesy ryzykują niesprawiedliwe natarcie na grupy marginalizowane” – powiedziała Caroline Selman, starsza badaczka w Public Law Project, jak podaje The Guardian.
Wyniki te pojawiają się w momencie zwiększonej kontroli nad wykorzystaniem AI w usługach publicznych. Niezależne raporty sugerują, że co najmniej 55 zautomatyzowanych narzędzi jest w użyciu przez publiczne organy władzy w Wielkiej Brytanii, potencjalnie wpływając na decyzje milionów osób, mówi The Guardian.
Jednak oficjalny rejestr rządowy dotyczący sztucznej inteligencji (AI) wymienia tylko dziewięć systemów, co ujawnia znaczne zaniedbanie w zakresie odpowiedzialności, jak informuje The Guardian.
Ponadto, rząd brytyjski spotyka się z krytyką za niezapisywanie użycia AI w obowiązkowym rejestrze, co wywołuje obawy o przejrzystość i odpowiedzialność w miarę wzrostu adopcji AI.
DWP usunęło kluczowe szczegóły ze swojej analizy sprawiedliwości, w tym informacje, które grupy wiekowe czy narodowości były niewspółmiernie oznaczane. Urzędnicy argumentowali, że ujawnienie takich szczegółów mogłoby umożliwić oszustom manipulowanie systemem, jak zauważył The Guardian.
Rzecznik DWP podkreślił, że ludzki osąd pozostaje kluczowy w podejmowaniu decyzji, jak donosi The Guardian. Te ujawnienia zwiększają ogólne obawy o transparentność rządu w zakresie wdrażania AI, przy czym krytycy domagają się surowszego nadzoru i solidnych zabezpieczeń, aby zapobiec nadużyciom.
Zostaw komentarz
Anuluj odpowiedź