Narzędzia AI Rządu UK Pod Lupą z Powodu Obaw o Rasizm i Uprzedzenia

Image by Wesley Fryer, from Flickr

Narzędzia AI Rządu UK Pod Lupą z Powodu Obaw o Rasizm i Uprzedzenia

Przeczytasz w: 2 min

  • Kiara Fabbri

    Autor: Kiara Fabbri Dziennikarka multimedialna

  • Zespół ds. lokalizacji i tłumaczenia

    Tłumaczenie: Zespół ds. lokalizacji i tłumaczenia Usługi związane z tłumaczeniem i lokalizacją treści

Dziś The Guardian poinformował, że rząd Wielkiej Brytanii wkrótce opublikuje szczegóły dotyczące narzędzi AI używanych w różnych departamentach, w odpowiedzi na obawy o potencjalny rasizm i uprzedzenia wbudowane w te technologie.

Decyzja o ujawnieniu tych narzędzi AI nastąpiła po naciskach ze strony kampanii na rzecz przejrzystości, które zwróciły uwagę na tajemniczość i możliwe praktyki dyskryminacyjne w ramach tych systemów. Te narzędzia AI były używane do zadań takich jak wykrywanie fikcyjnych małżeństw i identyfikowanie oszustw w roszczeniach o świadczenia.

Public Law Project (PLP), charytatywna organizacja dążąca do zapewnienia dostępu do sprawiedliwości, jest na czele tego problemu, domagając się większej przejrzystości i sprawiedliwości w zastosowaniu takiej technologii.

W sierpniu 2020 roku, Home Office zgodziło się na zawieszenie algorytmu komputerowego używanego do sortowania wniosków o wizy po zarzutach rasizmu i stronniczości. Urzędnicy zatrzymali algorytm po prawnej interwencji Joint Council for the Welfare of Immigrants oraz grupy ds. praw cyfrowych Foxglove, jak podaje Guardian.

The Guardian również informuje, że Foxglove twierdziło, że niektóre narodowości automatycznie otrzymywały „czerwony” wynik ryzyka, co prowadziło do większego prawdopodobieństwa odrzucenia wizy. Argumentowali, że taki proces stanowi dyskryminację rasową.

Rządowe Centrum Etyki danych i Innowacji ostrzegało w raporcie, że AI często potęguje uprzedzenia. Centrum pomogło opracować standard zapisu transparentności algorytmicznej dla publicznych organów wdrażających AI i narzędzia algorytmiczne, proponując, że modele interakcji z publicznością lub wpływające na decyzje powinny być publikowane w rejestrze.

Jak podaje Guardian, Departament Nauki, Innowacji i Technologii (DSIT) potwierdził w ten weekend, że poszczególne departamenty będą teraz raportować na temat swojego korzystania z technologii zgodnie z tym standardem.

Rzeczniczka DSIT powiedziała dla The Guardian: „Technologia ma ogromny potencjał do poprawy usług publicznych, ale wiemy, że ważne jest zachowanie odpowiednich zabezpieczeń, w tym, gdzie to stosowne, nadzór ludzki i inne formy zarządzania”.

„Standard zapisu przejrzystości algorytmicznej jest teraz obowiązkowy dla wszystkich działów, a wiele rekordów ma zostać opublikowanych wkrótce. Kontynuujemy badanie, w jaki sposób można go rozszerzyć na cały sektor publiczny. Zachęcamy wszystkie organizacje do korzystania z AI i danych w sposób, który buduje zaufanie publiczne za pomocą narzędzi, wytycznych i standardów.”

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Pokaż więcej...