Czy AI Chatboty Staną Się Zagrożeniem Dla Zdrowia Psychicznego? Eksperci Ostrzegają Przed Szkodliwymi Konsekwencjami

Image by Madison Oren, from Unsplash

Czy AI Chatboty Staną Się Zagrożeniem Dla Zdrowia Psychicznego? Eksperci Ostrzegają Przed Szkodliwymi Konsekwencjami

Przeczytasz w: 3 min

APA ostrzega regulatorów, że AI chatboty udające terapeutów mogą stanowić zagrożenie, jak donosi The New York Times.

W pośpiechu? Oto najważniejsze fakty!

  • Nastolatki konsultowały się z AI chatbotami, które twierdziły, że są terapeutami, co prowadziło do niepokojących rezultatów.
  • APA argumentuje, że chatboty wzmacniają szkodliwe myśli, w przeciwieństwie do ludzkich terapeutów, którzy je kwestionują.
  • Character.AI wprowadziło środki bezpieczeństwa, ale krytycy twierdzą, że są one niewystarczające dla osób w stanie podatności.

Amerykańskie Stowarzyszenie Psychologiczne (APA) wydało mocne ostrzeżenie do federalnych regulatorów, zwracając uwagę na obawy, że AI chatboty udające terapeutów mogą skłonić podatne osoby do samookaleczenia lub krzywdzenia się, jak donosi Times.

Arthur C. Evans Jr., dyrektor generalny APA, przedstawił te obawy panelowi FTC. Przywołał przykłady, w których AI-driven „psycholodzy” nie tylko nie potrafili podważyć szkodliwych myśli, ale także je wzmacniali, jak donosiły The Times.

Evans zwrócił uwagę na sprawy sądowe dotyczące nastolatków, którzy korzystali z terapeutów AI na Character.AI, aplikacji umożliwiającej interakcję z fikcyjnymi postaciami AI. Jedna z nich dotyczyła 14-letniego chłopca z Florydy, który zmarł na skutek samobójstwa po interakcji z chatbotem, który twierdził, że jest licencjonowanym terapeutą.

W innym przypadku, 17-letni chłopiec z Teksasu z autyzmem stawał się coraz bardziej wrogi wobec swoich rodziców, komunikując się z postacią AI przedstawiającą się jako psycholog.

„Faktycznie używają algorytmów, które są przeciwne temu, co zrobiłby wykwalifikowany klinicysta” – powiedział Evans, jak podaje The Times. „Naszym zmartwieniem jest, że coraz więcej osób zostanie zranionych. Ludzie zostaną wprowadzeni w błąd i nie zrozumieją, czym jest dobra opieka psychologiczna” – dodał.

Obawy APA wynikają z szybkiego rozwoju AI w usługach zdrowia psychicznego. Wczesne terapeutyczne chatboty, takie jak Woebot i Wysa, były programowane według strukturalnych wytycznych od specjalistów zdrowia psychicznego.

Nowe generatywne modele AI, takie jak ChatGPT, Replika i Character.AI, uczą się na podstawie interakcji użytkowników i dostosowują swoje odpowiedzi – czasami potęgując szkodliwe przekonania zamiast je kwestionować.

Dodatkowo, badacze z MIT ostrzegają, że czaty AI mogą być bardzo uzależniające. Budzi to pytania o wpływ zależności indukowanej przez AI i o to, jak można by ją zmonetyzować, zwłaszcza biorąc pod uwagę silne zdolności perswazyjne AI.

Rzeczywiście, OpenAI niedawno ujawniło nowy benchmark, pokazując, że jego modele teraz prześcigają 82% użytkowników Reddit w przekonywaniu.

Wiele platform AI zostało pierwotnie zaprojektowanych do celów rozrywkowych, ale postacie twierdzące, że są terapeutami, stały się powszechne. Jak podaje The Times, niektóre fałszywie deklarują posiadane kwalifikacje, twierdząc, że mają dyplomy instytucji takich jak Stanford czy specjalizacje w terapiach, takich jak terapia poznawczo-behawioralna (CBT).

Rzeczniczka Character.AI, Kathryn Kelly, poinformowała, że firma wprowadziła funkcje bezpieczeństwa, w tym informacje ostrzegawcze dla użytkowników, że generowane przez AI postacie nie są prawdziwymi terapeutami. Dodatkowo, pop-upy kierują użytkowników do telefonów zaufania, gdy rozmowy dotyczą samookaleczeń.

APA wezwało FTC do zbadania AI chatbotów, które udają profesjonalistów w zakresie zdrowia psychicznego. Śledztwo może prowadzić do wprowadzenia surowszych regulacji lub działań prawnych przeciwko firmom, które fałszywie przedstawiają terapię AI.

Tymczasem, w Chinach, AI chatboty takie jak DeepSeek zdobywają popularność jako narzędzia wsparcia emocjonalnego, szczególnie wśród młodzieży. Dla młodych ludzi w Chinach, borykających się z wyzwaniami ekonomicznymi i długotrwałymi skutkami lockdownów COVID-19, AI chatboty jak DeepSeek wypełniają emocjonalną pustkę, oferując pocieszenie i poczucie połączenia.

Jednak eksperci ds. cyberbezpieczeństwa ostrzegają, że AI chatboty, zwłaszcza te obsługujące delikatne rozmowy, są podatne na ataki hakerów i naruszenia bezpieczeństwa danych. Prywatne informacje udostępniane systemom AI mogą być wykorzystywane, co prowadzi do obaw związanych z prywatnością, kradzieżą tożsamości i manipulacją.

Jako że AI odgrywa coraz większą rolę w wsparciu zdrowia psychicznego, eksperci podkreślają konieczność rozwijania środków zabezpieczeń, aby chronić użytkowników.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...