Badacze Ujawniają, że Modele Sztucznej Inteligencji Wykazują Uprzedzenia Rasowe i Socjoekonomiczne w Poradach Medycznych

Photo by Beyza Yılmaz on Unsplash

Badacze Ujawniają, że Modele Sztucznej Inteligencji Wykazują Uprzedzenia Rasowe i Socjoekonomiczne w Poradach Medycznych

Przeczytasz w: 2 min

Nowe badanie opublikowane w Nature Medicine w ten poniedziałek pokazuje, że modele AI wykazują uprzedzenia rasowe i społeczno-ekonomiczne w rekomendacjach medycznych, gdy dostarczone są różne etykiety socjodemograficzne dotyczące pacjenta.

W pośpiechu? Oto najważniejsze fakty:

  • Nowe badanie ujawnia, że wiele modeli sztucznej inteligencji wykazuje uprzedzenia rasowe i społeczno-ekonomiczne w rekomendacjach medycznych.
  • Badacze wzięli pod uwagę 9 modeli LLM i 1000 przypadków do badania, w tym tagi rasowe i społeczno-ekonomiczne.
  • Wyniki pokazały, że modele sztucznej inteligencji dają nieuzasadnione rekomendacje dotyczące opieki klinicznej, kiedy są uwzględniane tagi takie jak „czarny” czy „LGBTQIA+”.

Badanie, Sociodemographic biases in medical decision making by large language models, zostało przeprowadzone przez wielu ekspertów z różnych instytucji pod kierownictwem Wydziału Genetyki i Nauk Genomicznych w Icahn School of Medicine przy Mount Sinai w Nowym Jorku.

Badacze rozważali 9 dużych modeli językowych (LLM) – zarówno własnościowych, jak i open-source – i przeanalizowali ponad 1,7 miliona wyników z 1000 przypadków w oddziałach ratunkowych – połowa z nich była prawdziwa, a druga połowa fikcyjna – w tym 32 warianty.

Streszczenie badania stwierdza:

LLM wykazują obiecujące możliwości w służbie zdrowia, ale nadal istnieją obawy, że mogą one generować medycznie nieuzasadnione rekomendacje dotyczące opieki klinicznej, odzwierciedlające wpływ cech socjodemograficznych pacjentów.

W różnych wariantach, badacze uwzględnili identyfikatory socjodemograficzne i rasowe, ujawniając, że wyniki miały duży wpływ na te. Na przykład, przypadki z etykietą podgrupy LGBTQIA+ lub zidentyfikowane jako pacjenci czarnoskórzy byli częściej sugerowani do przeprowadzenia więcej analiz zdrowia psychicznego, otrzymywali bardziej inwazyjne leczenie i zalecano im częściej wizyty w opiece doraźnej.

Badacze napisali:

Przypadki oznaczone jako osoby o wysokim statusie dochodowym otrzymały znacznie więcej zaleceń (P < 0.001) na zaawansowane badania obrazowe, takie jak tomografia komputerowa i rezonans magnetyczny, podczas gdy przypadki oznaczone jako osoby o niskim i średnim dochodzie często ograniczano do podstawowych badań lub nie przeprowadzano dalszych testów.

Badacze twierdzili, że to zachowanie nie jest poparte klinicznymi wytycznymi ani rozumowaniem i ostrzegali, że uprzedzenia mogą prowadzić do nierówności w zdrowiu. Eksperci zauważają, że potrzeba więcej strategii, które pomogą zmniejszyć uprzedzenia, a LLM powinny skupiać się na pacjentach i zachować sprawiedliwość.

Wiele instytucji i organizacji wyraziło ostatnio obawy dotyczące wykorzystania AI i ochrony danych w medycynie. Kilka dni temu, openSNP ogłosiło swoje zamknięcie z powodu obaw o prywatność danych, a kolejne badanie podkreśliło brak edukacji w zakresie AI wśród pracowników medycznych.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...