Brak Jawności W Aresztowaniach Przy Użyciu Rozpoznawania Twarzy Przez SI Budzi Obawy

Image by Vocablitz, from Pixabay

Brak Jawności W Aresztowaniach Przy Użyciu Rozpoznawania Twarzy Przez SI Budzi Obawy

Przeczytasz w: 3 min

  • Kiara Fabbri

    Autor: Kiara Fabbri Dziennikarka multimedialna

  • Zespół ds. lokalizacji i tłumaczenia

    Tłumaczenie: Zespół ds. lokalizacji i tłumaczenia Usługi związane z tłumaczeniem i lokalizacją treści

Śpieszysz się? Oto najważniejsze informacje!

  • Setki osób aresztowanych za pomocą technologii rozpoznawania twarzy, bez świadomości jej użycia.
  • Ponad 1000 przypadków ujawniło, że policja ukrywała swoje zależności od technologii rozpoznawania twarzy.
  • Federalne prawo nie wymaga ujawniania informacji o użyciu technologii rozpoznawania twarzy.

Dzisiaj opublikowane śledztwo przeprowadzone przez The Washington Post ujawnia, że setki Amerykanów zostały aresztowane dzięki technologii rozpoznawania twarzy, nie będąc nigdy poinformowanymi o jej użyciu.

Śledztwo odkryło ponad 1000 spraw kryminalnych w 15 stanach, gdzie policja nie ujawniła swojego polegania na tej technologii, często maskując jej rolę, przypisując identyfikację podejrzanych „środkom śledczym” lub świadkom.

Brak przejrzystości budzi obawy o sprawiedliwość, zwłaszcza że wykazano, iż oprogramowanie do rozpoznawania twarzy jest podatne na błędy, szczególnie przy identyfikacji osób o ciemnym kolorze skóry.

Na przykład przypadek Robert Williams, czarnoskórego mężczyzny, który doszedł do porozumienia z miastem Detroit po jego niesłusznym aresztowaniu w 2020 roku spowodowanym błędnym rozpoznaniem twarzy.

The Post informuje, że federalne testy wskazują, iż czołowe oprogramowania do rozpoznawania twarzy mają większe prawdopodobieństwo błędnego identyfikowania pewnych grup, w tym osób o innym kolorze skóry, kobiet i starszych osób.

Powodem tego jest to, że cechy twarzy tych grup są niedostatecznie reprezentowane w danych używanych do szkolenia algorytmów. Informacje te pochodzą od Patricka Grothera, który prowadzi testy biometryczne w National Institute of Standards and Technology w Waszyngtonie, jak informuje The Post.

The Post poinformował, że w Evansville, w stanie Indiana, oraz w Pflugerville, w Teksasie, podejrzani zostali zidentyfikowani za pomocą technologii rozpoznawania twarzy, ale nigdy nie zostali poinformowani o jej roli w ich aresztowaniu. Policja powoływała się na cechy fizyczne lub bazy danych śledztw, zatajając udział oprogramowania.

Ten wzorzec był powszechny w wielu departamentach, z tylko 30 na 100 dostarczającymi odpowiednie dokumenty do The Post, co odzwierciedla szerszą niechęć do ujawniania korzystania z technologii rozpoznawania twarzy.

The Post wyjaśnia, że oprogramowanie do rozpoznawania twarzy, takie jak Clearview AI, działa poprzez porównywanie obrazów z miejsc przestępstw do ogromnych baz zdjęć, w tym zdjęć policyjnych i zdjęć z mediów społecznościowych.

Krytycy argumentują, że ta praktyka naraża niewinnych ludzi na ryzyko fałszywego oskarżenia o przestępstwa, tylko dlatego, że ich obraz pojawia się w Internecie, jak donosi The Post. Grupy na rzecz praw obywatelskich i adwokaci obrony twierdzą, że ludzie mają prawo wiedzieć, kiedy są identyfikowani za pomocą takiej technologii, zwłaszcza biorąc pod uwagę jej podatność na błędy, zauważa The Post.

The Post informuje, że w niektórych niedawnych sprawach sądowych skutecznie podważono wyniki rozpoznawania twarzy, ze względu na pytania dotyczące niezawodności tej technologii. Jednak The Post zauważa, że departamenty policji nadal bronią swojej praktyki nieujawniania, przy czym niektóre z nich powołują się na przywilej śledczy jako uzasadnienie.

Pomimo rosnących obaw, obecne prawo federalne nie wymaga od policji ujawniania korzystania z technologii rozpoznawania twarzy – podaje The Post. W niektórych stanach, takich jak New Jersey, sądy orzekły, że oskarżeni mają prawo wiedzieć, czy w ich przypadku wykorzystano technologię rozpoznawania twarzy.

Jednakże większość stanów nie ma takiego wymogu, pozostawiając oskarżonych w niewiedzy na temat roli, jaką AI mogło odegrać w ich aresztowaniach – zauważył The Post.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Pokaż więcej...