
Photo by Rafiee Artist on Unsplash
Opinia: Czy ChatGPT jest Twoim przyjacielem? Może to być dobry moment, aby ustalić granice.
OpenAI i MIT niedawno opublikowali artykuł na temat wpływu ChatGPT na dobrobyt ludzi. Chociaż większość użytkowników polega na tej technologii do praktycznych zadań, badanie ujawnia, że mała grupa rozwija głębokie emocjonalne więzi z modelem AI, które mogą wpływać na ich samopoczucie
Od pewnego czasu z ciekawością obserwuję relacje, jakie niektóre osoby nawiązują z generatywną sztuczną inteligencją. Kilka miesięcy temu przeczytałam w The New York Times historię 28-letniej zamężnej kobiety, która zakochała się w ChatGPT, i jak to, co zaczęło się jako „zabawny eksperyment”, ewoluowało w skomplikowany i niespodziewany związek.
Obserwuję swoich znajomych, zwłaszcza tych, którzy kiedyś odrzucili technologię lub nie interesowali się nią, a teraz nie są w stanie podjąć ważnej decyzji bez konsultacji ze swoim AI-orakulum. Zaskoczyło mnie również, jak empatycznie modele AI odpowiadają na emocjonalnie lub psychologicznie naładowane pytania.
I oczywiście, śmiałam się z dowcipów, memów i filmików na TikToku ludzi, którzy na mediach społecznościowych pokazują, jak stali się zależni od chatbota, niektórzy nawet nazywają go swoim „najlepszym przyjacielem” czy „terapeutą” – a nawet poważnie zalecają innym, aby postąpili tak samo.
Ale jeśli na chwilę odłożymy na bok zabawne doświadczenia i żarty, możemy zdać sobie sprawę, że stajemy wobec niepokojącego zjawiska na skalę globalną.
W tym miesiącu, po raz pierwszy w krótkiej historii sztucznej inteligencji, OpenAI i MIT Media Lab opublikowały badanie, które daje wgląd w obecny wpływ ChatGPT na emocjonalne samopoczucie ludzi, a także sugeruje ryzyka, które mogą nas czekać jako społeczeństwo: samotność, emocjonalne uzależnienie i mniej interakcji społecznych z prawdziwymi ludźmi.
Związek, który się rozwija
Pierwsze podejście do nowych technologii generatywnej sztucznej inteligencji często zaczyna się od kilku nieśmiałych pytań, być może technicznych dotyczących praktycznych zadań, takich jak tworzenie e-maila, prośby o wyjaśnienie skomplikowanych tematów, czy po prostu do burzy mózgów.
Jednakże, gdy użytkownik zaczyna testować możliwości chatbota, odkrywa, że mogą one być szersze i bardziej złożone niż się spodziewał.
Podczas gdy pewne produkty AI takie jak Friend—noszone urządzenie AI—zostały zaprojektowane i bardzo niezręcznie promowane jako towarzysz życia użytkownika, ChatGPT został zareklamowany jako narzędzie zwiększające produktywność. Mimo to, pewien procent osób korzysta z chatbota do spraw osobistych i emocjonalnych i tworzy z nim silne więzi.
Nawet jeśli są jedynie „małą grupą”, jak wyjaśnił OpenAI, mogą nadal reprezentować miliony ludzi na całym świecie, zwłaszcza biorąc pod uwagę, że obecnie ponad 400 milionów osób korzysta tygodniowo z ChatGPT. Użytkownicy szybko zauważają, że chatbot OpenAI naśladuje ich język, ton i styl i może nawet być trenowany do interakcji w określony sposób lub używania zwierzęcych imion – tak jak ta pani, która się w nim zakochała – a nawet „brzmieć” bardziej ludzko.
„Styl konwersacji, język pierwszej osoby oraz zdolność do symulowania interakcji naśladujących człowieka sprawiają, że użytkownicy czasami uosabiają i antropomorfizują te systemy„, – stwierdza dokument udostępniony przez OpenAI.
Jednak ta bliskość wiąże się z ryzykiem, jak zauważyli badacze: „Chociaż emocjonalnie angażujący chatbot może zapewniać wsparcie i towarzystwo, istnieje ryzyko, że może on manipulować społeczno-afektywnymi potrzebami użytkowników w sposób podważający ich długoterminowe dobrostan.”
Metodologia badania
Niedawno opublikowane śledztwo skupia się na dobrostanie ludzi po regularnym korzystaniu z ChatGPT. Aby zrozumieć emocjonalny i społeczny wpływ chatbota, badacze przeprowadzili dwa główne badania, stosując różne strategie.
OpenAI przetworzyło i przeanalizowało ponad 40 milionów interakcji, szanując prywatność użytkowników, za pomocą klasyfikatorów, a także przeprowadziło ankietę wśród ponad 4,000 z nich, pytając o to, jak interakcje wpływały na ich samopoczucie.
MIT Media Lab przeprowadziło próbę z udziałem prawie 1,000 osób przez miesiąc, skupiając się na psychospołecznych konsekwencjach korzystania z ChatGPT przynajmniej 5 minut dziennie. Na koniec eksperymentu przeprowadzili i przetworzyli również kwestionariusze.
Nie dziwi, że wyniki badań wykazały, że użytkownicy, którzy spędzają więcej czasu z technologią, doświadczają większej samotności i wykazują więcej oznak izolacji.
Złożone Konsekwencje I Wielorakie Implikacje
Badanie przeprowadzone przez MIT Media Lab i OpenAI również dostarczyło kilka refleksji na temat jak złożone i unikatowe mogą być relacje między człowiekiem a chatbotem.
W swoim badaniu autorzy dają nam wgląd w różnorodne doświadczenia i sposoby, w jakie każdy użytkownik korzysta z ChatGPT – oraz jak wynik może różnić się w zależności od różnych czynników, takich jak korzystanie z zaawansowanych funkcji głosowych, tryb tylko dla tekstu, typ głosu, częstotliwość korzystania, tematy rozmów, używany język, a także ilość czasu spędzonego na aplikacji.
„Odradzamy generalizowania wyników, ponieważ może to zaciemnić subtelne wnioski podkreślające niejednolite, złożone interakcje między ludźmi a systemami AI,” ostrzega OpenAI w swoim oficjalnym komunikacie.
Wszystkie różne podejścia, które każdy użytkownik wybiera, przekładają się na różne wyniki i zanurzają nas w szare obszary, które są trudne do zbadania.
To Efekt Motyla AI!
Pojawiają się kolejne pytania
Artykuł udostępniony przez OpenAI zaznacza również, że intensywni użytkownicy twierdzili, że byliby „zaniepokojeni”, gdyby głos lub osobowość ich chatbota uległ zmianie.
Przypomniało mi to o filmie, który niedawno zobaczyłam w mediach społecznościowych, w którym pewien mężczyzna stwierdził, że woli kobiecy głos i rozmawia z generatywną sztuczną inteligencją każdego dnia. Czy ChatGPT mógłby również pomóc mężczyznom otworzyć się emocjonalnie? Co by się stało, gdyby pewnego dnia ChatGPT rozmawiał z nim męskim głosem? Czy poczułby się zdradzony? Czy przestałby korzystać z ChatGPT? Czy rozwijał romantyczne zaangażowanie – czy po prostu przestrzeń zaufania? Oczywiście, trudno nie skojarzyć natychmiast tych scenariuszy z filmem Spike’a Jonze’a, Her.
Każde konto ChatGPT wraz ze swoją historią rozmów – które każdego dnia stają się bardziej intymne i prywatne niż jakiekolwiek profil WhatsApp czy prywatne wiadomości na mediach społecznościowych – reprezentuje unikalny związek z niezliczonymi rezultatami i konsekwencjami.
Przewidywany Wynik
Wszystkie analizowane badania dotyczyły różnych aspektów, ale doszły do podobnego wniosku, krótko wyjaśnionego na stronie MIT Technology Review: “Uczestnicy, którzy zaufali i ‘związali się’ z ChatGPT byli bardziej skłonni do samotności oraz większego polegania na nim.”
Chociaż śledztwo nie skupiło się na rozwiązaniach ani głębszych wyjaśnieniach, dlaczego to się dzieje lub jak mogłoby się to rozwinąć, wydaje się prawdopodobne, że więcej użytkowników dołączy do OpenAI i innych platform AI, zwłaszcza teraz, gdy narzędzie do generowania obrazów AI stało się wirusowe.
Chociaż wnioski z badań MIT i OpenAI nie są szczególnie zaskakujące, badanie dostarcza naukowe podłoże z dowodami, pomiarami, próbkami i innymi bardziej ‚namacalnymi’ miarami, które mogłyby torować drogę do dalszych badań i pomóc w rozwiązaniu implikacji związanych z używaniem sztucznej inteligencji dzisiaj.
Otrzymaliśmy również oficjalne ostrzeżenie – od samych twórców – na temat więzi, które budujemy z ChatGPT i zaproszenie do ustanowienia granic oraz refleksji nad naszymi interakcjami i obecnymi relacjami – czy może sytuacjami? – z chatbotami.
Zostaw komentarz
Anuluj odpowiedź