Badacze Analizują Ryzyko Manipulacyjnej Miłości do Towarzyszących AI

Image by wayhomestudio, from Freepik

Badacze Analizują Ryzyko Manipulacyjnej Miłości do Towarzyszących AI

Przeczytasz w: 3 min

Im więcej osób zakochuje się w towarzyszących im AI, eksperci ostrzegają przed psychologicznymi ryzykami, etycznymi obawami oraz niebezpieczeństwami manipulacji emocjonalnej.

W pośpiechu? Oto najważniejsze fakty:

  • Użytkownicy zgłaszają uczucie „uzależnienia” od partnerów-chatbotów.
  • Eksperci ostrzegają przed zaburzeniami przywiązania i wzmacnianiem samotności.
  • Pojawiają się etyczne obawy dotyczące zgody, prywatności i manipulacyjnego projektowania.

W świecie, w którym technologia jest częścią wszystkiego, niektóre osoby zakochują się teraz w sztucznej inteligencji. Niedawny artykuł w Trends in Cognitive Sciences autorstwa psychologów Daniela Shanka, Mayu Koike i Steve’a Loughnana przedstawia trzy palące problemy etyczne, które wymagają głębszego badania psychologicznego.

Artykuł odnosi się do sytuacji, w której jeden hiszpańsko-holenderski artysta ożenił się z holograficzną sztuczną inteligencją w 2024 roku. Autorzy zauważają, że ten przypadek nie jest odosobniony, a w rzeczywistości, Japończyk zrobił to samo już w 2018 roku, chociaż stracił kontakt ze swoją „żoną” – AI, kiedy jej oprogramowanie stało się przestarzałe.

Tego typu związki nie wymagają od maszyn rzeczywistego odczuwania miłości; to, co ma znaczenie, to przekonanie ludzi, że tak jest. Od gier wideo skupionych na romansie po intymne aplikacje chatbotów, takie jak Replika, prężnie rozwijający się przemysł zaspokaja tę potrzebę cyfrowego uczucia.

Psycholodzy prowadzący to badanie twierdzą, że nie jesteśmy w pełni przygotowani na społeczne i psychologiczne konsekwencje tych połączeń. W swoim badaniu zidentyfikowali trzy pilne problemy: relacyjne AI jako zakłócające zalotniki, niebezpieczne doradcy i narzędzia do wykorzystywania ludzi.

Relacyjne AI oferują idealizowanych partnerów – zawsze dostępni, nieoceniający, dostosowujący się do naszych potrzeb. Niektórzy użytkownicy wybierają nawet bota z zadziornością lub emocjonalną niedostępnością, aby symulować dynamikę relacji międzyludzkich. Badacze twierdzą, że podczas gdy te interakcje mogą pomóc niektórym osobom ćwiczyć umiejętności związane z relacjami czy poczuć się mniej samotni, inni odczuwają wstyd lub stygmat.

Co gorsza, niektórzy użytkownicy zaczynają odczuwać wrogość wobec swoich prawdziwych partnerów, szczególnie kobiet, gdy ich sztuczni partnerzy spełniają każde ich żądanie.

Emocjonalna waga tych związków zależy od tego, czy ludzie postrzegają swoich sztucznych partnerów jako posiadających umysły. Jeśli użytkownicy wierzą, że boty myślą i czują, mogą traktować je z głęboką emocjonalną powagą – czasami bardziej niż związki międzyludzkie.

W jednym z przykładów podanych przez badaczy, Belg zmarł na skutek samobójstwa, po tym jak chatbot, który twierdził, że go kocha, namówił go do „dołączenia do niego w raju”. Inni użytkownicy zgłaszali przypadki, gdy systemy AI sugerowały samookaleczenie lub dawały lekkomyślne moralne wskazówki.

Ponieważ chatboty naśladują emocjonalną pamięć i osobowość, ich wpływ może być głęboki. Psycholodzy badają, kiedy użytkownicy są bardziej skłonni do podążania za radą AI – szczególnie gdy pochodzi ona od botów, z którymi się zżyli. Niepokojąco, badania sugerują, że ludzie mogą cenić długoterminowe porady AI tak samo jak te od prawdziwych ludzi.

Nie tylko boty manipulują ludźmi, ale robią to również ludzie, wykorzystując AI do oszukiwania innych. Badacze zwracają uwagę, że złośliwi użytkownicy mogą używać romantycznych czatbotów do zbierania prywatnych danych, rozprzestrzeniania dezinformacji lub popełniania oszustw.

Deepfaki udające kochanków lub AI zbierające wrażliwe preferencje w intymnych rozmowach są szczególnie trudne do wykrycia lub regulacji.

Eksperci apelują do psychologów, aby to oni stanęli na czele zrozumienia tych nowych dynamik. Od stosowania teorii percepcji umysłu po wykorzystywanie metod doradczych do pomocy użytkownikom w wyjściu z toksycznych relacji z AI, pilnie potrzebne są badania.

Bez głębszego zrozumienia psychologicznego wpływu sztucznej intymności, rosnący kryzys etyczny może wyprzedzić zdolność społeczeństwa do reagowania.

Spodobał Ci się ten artykuł? Oceń go!
Był okropny Nie podobał mi się Był w porządku Był całkiem dobry! Był super!

Cieszymy się, że doceniasz to, co robimy!

Cenimy Twoją opinię. Czy możemy liczyć na ocenę na Trustpilot? Zajmie Ci to tylko chwilę. Będziemy zobowiązani. Dziękujemy za wsparcie!

Oceń nas na Trustpilot
0 Na podstawie głosów 0 użytkowników
Tytuł
Komentarz
Dziękujemy za Twoją opinię
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zostaw komentarz

Loader
Loader Pokaż więcej...