#CyberMagazyn: Samotni wśród pikseli. Jak chatboty wpływają na nasze relacje i emocje?

Autor. Ewelina Jaszczuk/AI
Nie da się zaprzeczyć, że pojawienie się pierwszych powszechnie dostępnych modeli AI, takich jak wszystkim dobrze znany ChatGPT, rozpoczęło rewolucję w zakresie np. pracy biurowej, pracy specjalistów z branży IT czy generalnie naszego życia codziennego. Okazuje się, że tego typu narzędzia mają zauważalny wpływ na ludzką psychikę i zdrowie.
Chatboty AI, przede wszystkim te, które mają opcję głosową, stają się coraz mocniej zbliżone w interakcji do człowieka – mowa tutaj oczywiście o dostosowaniu głosu modelu, pracy nad naturalnie wyglądającymi pauzami, reakcji na przerwanie jego wypowiedzi czy wiele innych, a nie o szczerości wypowiedzi, emocjach, choć i te mniej lub lepiej próbują udawać.
Choć możecie nie znać takich osób w swoim środowisku, to występują jednostki, które uzależniają wręcz swoją emocjonalność od rozmów ze świetnie już dopasowanym modelem językowym do swoich potrzeb.
Jak tego typu praktyki odbijają się na zdrowiu i emocjach użytkowników chatbotów? Czy należy bić już na alarm?
Co mówi nam eksperyment MIT Media Lab & OpenAI?
W ramach czterotygodniowego, randomizowanego i kontrolowanego eksperymentu zatwierdzonego przez komisję etyczną (IRB), przebadano 981 uczestników, którzy wymienili ponad 300 tysięcy wiadomości z chatbotem AI.
Badanie odnajdziemy pod nazwą „How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use: A Longitudinal Controlled Study”. Zostało przeprowadzone przez zespół badaczy z MIT Media Lab, we współpracy z OpenAI. W skład zespołu wchodzili m.in. Cathy Mengying Fang, Auren R. Liu, Valdemar Danry, Eunhae Lee, Samantha W.T. Chan, Pat Pataranutaporn, Pattie Maes, Jason Phang, Michael Lampe, Lama Ahmad i Sandhini Agarwal.
Celem było sprawdzenie, jak różne formy interakcji (tekst, głos neutralny i głos angażujący emocjonalnie) oraz trzy typy konwersacji (otwarta, osobista i nieosobista), wpływają na kluczowe wskaźniki psychospołeczne, takie jak samotność, kontakty z innymi ludźmi, zależność emocjonalna od AI oraz problematyczne użytkowanie technologii.
Samotni z wyboru algorytmu? Głosowe chatboty miały leczyć, ale czy nie pogłębiają ran?
W świecie, gdzie cyfrowi asystenci coraz częściej zastępują ludzką obecność, nowe badania rzucają światło na nieoczywiste konsekwencje ich stosowania.
Z początku chatboty sterowane głosem wydawały się obietnicą złagodzenia samotności — bardziej „żywe” i ludzkie niż te tekstowe. Jednak ta iluzja bliskości nie wytrzymuje próby czasu. Im częstszy kontakt, tym bardziej znika efekt nowości. Szczególnie zauważalne jest to w przypadku chatbotów mówiących neutralnym, pozbawionym emocji głosem — zamiast ulgi przynoszą znużenie, a czasem nawet pogłębiają izolację.
O czym rozmawiamy z chatem?
Okazuje się, że to, o czym rozmawiamy z maszyną, ma kluczowe znaczenie. Rozmowy osobiste – choć początkowo mogą zwiększać poczucie samotności – paradoksalnie chronią przed emocjonalnym uzależnieniem.
Otwarte pogawędki bez głębszego sensu? Te, według danych, sprzyjają budowaniu złudnego przywiązania, szczególnie u osób intensywnie korzystających z AI.
A kiedy temat jest nieosobisty i neutralny? To prosta droga do emocjonalnej zależności.
Co gorsza, codzienne, regularne korzystanie z chatbotów — niezależnie od ich formy czy tematyki rozmów — wiąże się z większą samotnością, silniejszym przywiązaniem do cyfrowego rozmówcy, a także z obniżoną chęcią do kontaktów międzyludzkich. W skrócie: im częściej mówimy do maszyn, tym rzadziej chcemy mówić do ludzi.
Kto jest najbardziej podatny?
Eksploracyjne analizy wykazały również coś bardziej niepokojącego. Osoby wykazujące silną potrzebę emocjonalnego przywiązania i wysoki poziom zaufania do AI są najbardziej podatne na negatywne skutki — czują się bardziej samotni, bardziej zależni, mniej obecni w relacjach z realnym światem.
Potrzeba dalszej analizy zjawiska
Należy nakreślić potrzebę dalszych badań nad tym, czy zdolność chatbotów do zarządzania treścią emocjonalną bez tworzenia zależności lub zastępowania relacji międzyludzkich korzystnie wpływa na ogólne samopoczucie.
Tak wygląda analiza wyników badań przeprowadzonego eksperymentu, jednak co warto zaznaczyć – przy umiejętnym stosowaniu technologia może wzmacniać relacje (w pewnym sensie). Przykładem są obszary, gdzie brakuje dostępu do tradycyjnej terapii.
Bezmyślne korzystanie z narzędzi, jakie dają nam dzisiejsze czasy wpływa negatywnie na relacje międzyludzkie, jednakże jeśli korzystajmy z nich rozsądnie - ryzyko maleje.
Zastosowanie AI w psychologii – szansa czy wyzwanie?
Zdaniem specjalistów (w ogóle), zastosowanie sztucznej inteligencji w psychologii budzi zarówno nadzieje, jak i wątpliwości. Aplikacje terapeutyczne czy chatboty zwiększają dostępność wsparcia psychologicznego, ale ich nadmierne użycie może wpływać na osłabienie zdolności do głębszych związków i bliskości.
Badania Stanford University
Badania przeprowadzone na Uniwersytecie Stanford w 2022 roku pokazały, że chatboty terapeutyczne potrafią skutecznie łagodzić objawy depresji i lęków. Dają poczucie wsparcia, szczególnie tam, gdzie dostęp do psychoterapii jest ograniczony.
Jednak — i to warto podkreślić — ich nadmierne stosowanie może prowadzić do poważnych konsekwencji. Regularne korzystanie z tego typu narzędzi bywa związane z trudnością w nawiązywaniu głębokich relacjimiędzyludzkich, osłabieniem umiejętności rozumienia emocji innych oraz spadkiem zdolności do aktywnego słuchania.
Co cenimy bardziej: relacje międzyludzkie czy stymulację odpowiedzi gwarantowanej?
Wnioski są jednak jasne i niepokojące zarazem. Sposób, w jaki projektujemy chatboty — ich głos, „osobowość”, a nawet tematykę rozmów — bezpośrednio wpływa na nasze emocje i relacje społeczne. Zamiast być lekarstwem, AI może stać się cyfrowym uzależnieniem, cichym substytutem prawdziwej bliskości.
Modele językowe źródłem prawdy objawionej?
Nie zapominajmy też o tym, że sztuczna inteligencja nie jest źródłem prawdy objawionej, gdy czegoś nie wie - najprościej w świecie mówiąc „zmyśla”.
Słowem podsumowania
Nadszedł czas na nowe pytania: czy możemy stworzyć sztuczną inteligencję, która będzie towarzyszyć, ale nie zniewalać? Czy możliwe jest emocjonalne wsparcie bez tworzenia emocjonalnej zależności?
Jeśli chcemy, by technologia była narzędziem zdrowia psychicznego, a nie jego zagrożeniem, musimy przestać zadawać pytanie, co chatbot może powiedzieć, i zacząć pytać jak to, co mówi, wpływa na człowieka.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].
Sztuczna inteligencja w Twoim banku. Gdzie ją spotkasz?
Materiał sponsorowany