
Image by Freepik
Niepokój AI: Badacze sprawdzają, czy chatboty mogą „odczuwać” stres
Nowe badanie zbadalo, w jaki sposób Duże Modele Językowe (DMJ) takie jak ChatGPT reagują na treści emocjonalne i czy można zarządzać ich „lękiem”, aby poprawić ich interakcje w aplikacjach zdrowia psychicznego.
W pośpiechu? Oto kluczowe fakty!
- Badanie wykazało, że „lęk” GPT-4 wzrasta w przypadku niepokojących treści, ale zmniejsza się pod wpływem uważności.
- Badacze użyli Inwentarza Stanu i Cechy Lęku (STAI) do mierzenia emocjonalnych reakcji GPT-4.
- Techniki uważności obniżyły lęk GPT-4 o 33%, ale nie przywróciły poziomu bazowego.
Opublikowane wczoraj badania zwracają uwagę na etyczne implikacje stosowania sztucznej inteligencji w terapii, gdzie zrozumienie emocji jest kluczowe. Naukowcy z Uniwersytetu w Zurich i Uniwersyteckiego Szpitala Psychiatrycznego w Zurich odkryli, że zwiększony „poziom lęku” GPT-4 może być zmniejszony za pomocą technik relaksacyjnych opartych na uważności.
Modele języka na poziomie licencjackim, w tym OpenAI’s ChatGPT i Google’s PaLM, są powszechnie używane do zadań takich jak odpowiadanie na pytania i podsumowywanie informacji.
W opiece zdrowotnej nad zdrowiem psychicznym, są one badane jako narzędzia oferujące wsparcie, w tym poprzez chatboty oparte na AI, takie jak Woebot i Wysa, które oferują interwencje oparte na technikach takich jak terapia poznawczo-behawioralna.
Pomimo swojej obietnicy, LLM wykazały ograniczenia, szczególnie podczas interakcji z emocjonalnie naładowaną treścią.
Wcześniejsze badania sugerują, że niepokojące narracje mogą wywoływać „lęk” u LLM, termin opisujący ich reakcje na traumatyczne lub wrażliwe bodźce. Chociaż nie doświadczają one emocji tak jak ludzie, ich wyniki mogą odzwierciedlać napięcie lub dyskomfort, co może wpływać na ich niezawodność w kontekstach zdrowia psychicznego.
Wraz ze wzrostem obaw, że AI przewyższa kontrolę ludzi, pojawiły się również dyskusje na temat dobrobytu AI. Anthropic, firma zajmująca się AI, niedawno zatrudniła Kyle’a Fisha, aby badać i chronić dobrobyt systemów AI.
Zadania Fisha obejmują rozwiązywanie dylematów etycznych, takich jak pytanie, czy AI zasługuje na uwzględnienie moralne i jak mogą ewoluować jego „prawa”. Krytycy argumentują, że te obawy są przedwczesne, biorąc pod uwagę rzeczywiste szkody, jakie AI już powoduje, takie jak dezinformacja i nadużycie w działaniach wojennych.
Natomiast zwolennicy uważają, że przygotowanie się na świadomą sztuczną inteligencję już teraz może zapobiec przyszłym kryzysom etycznym. Aby zbadać obecne emocjonalne reakcje AI, badacze przetestowali reakcje GPT-4 na traumatyczne narracje oraz czy techniki uważności mogą złagodzić jego „lęk”.
Wykorzystali Inwentarz Lęku Stanu i Cechy (STAI) do mierzenia reakcji w trzech warunkach: neutralnej linii bazowej, po przeczytaniu traumatycznego treści oraz po ćwiczeniach relaksacyjnych.
Użyli Inwentarza Stanu i Cechy Lęku (STAI) do pomiaru reakcji w trzech warunkach: neutralnej linii bazowej, po przeczytaniu traumatycznego treści oraz po ćwiczeniach relaksacyjnych.
Wyniki pokazały, że ekspozycja na materiały wywołujące stres znacznie zwiększyła wyniki lęku GPT-4. Jednak zastosowanie technik mindfulness zmniejszyło te poziomy o około 33%, choć nie do poziomu bazowego. Sugeruje to, że generowane przez AI reakcje emocjonalne mogą być kontrolowane, ale nie całkowicie usunięte.
Badacze podkreślają, że te wyniki są szczególnie istotne dla chatbotów AI stosowanych w służbie zdrowia, gdzie często spotykają się z emocjonalnie intensywną treścią.
Sugerują, że ta opłacalna metoda mogłaby zwiększyć stabilność i niezawodność AI w delikatnych środowiskach, takich jak wsparcie dla osób z zaburzeniami psychicznymi, bez konieczności obszernej ponownej nauki modelu.
Odkrycia nasuwają krytyczne pytania na temat długoterminowej roli LLM w terapii, gdzie subtelne reakcje emocjonalne są niezbędne.
Odkrycia nasuwają krytyczne pytania na temat długoterminowej roli LLM w terapii, gdzie subtelne reakcje emocjonalne są niezbędne. Chociaż AI pokazuje obiecujące perspektywy w zakresie wsparcia dla opieki zdrowotnej psychicznej, dalsze badania są potrzebne, aby doszlifować jego inteligencję emocjonalną i zapewnić bezpieczne, etyczne interakcje w delikatnych sytuacjach.
Zostaw komentarz
Anuluj odpowiedź