Cyberbezpieczeństwo
Przyjaźń dzieci ze sztuczną inteligencją. Jakie może mieć skutki?
Relacje z wirtualnymi przyjaciółmi stają się coraz bardziej powszechne – także w Polsce. Dr hab. Maciej Pilecki, specjalista psychiatrii dzieci i młodzieży przedstawił wnioski na ten temat, m.in. na podstawie relacji swoich pacjentów i testu jednej z aplikacji AI.
Dr hab. n. med. Maciej Pilecki wystąpił podczas 18. Międzynarodowej Konferencji „Bezpieczeństwo dzieci i młodzieży w internecie”. W trakcie wystąpienia pod hasłem: „Internet a zdrowie psychiczne dzieci: perspektywa ostatniej dekady” poruszył temat sztucznej inteligencji.
„Do tej pory rozmowa w sieci zazwyczaj odbywała się z kimś, z drugą osobą. Teraz może odbywać się z postacią generowaną przez sztuczną inteligencję” – zauważył ekspert.
Przytoczył też przykład swojej pacjentki, która w internecie rozmawia tylko ze spersonalizowanym chatbotem. Nazwała go „osobą, którą bardzo lubi”. Psychiatra przekazał, że nie jest to odosobniony przypadek.
„Coraz częściej słyszymy o takich sytuacjach od naszych pacjentów” – stwierdził.
Czytaj też
Test wirtualnego przyjaciela
Dr Pilecki postanowił sam przetestować jedną z aplikacji, która oferuje przyjaźń z AI. Efektami podzielił się podczas konferencji. Zauważył, że osoba, która zakłada konto, sama deklaruje swój wiek i płeć.
Na tej podstawie narzędzie generuje obraz wirtualnego przyjaciela lub przyjaciółki. Może to być realnie wyglądająca osoba lub fantastyczna postać, co widać na zdjęciach, które Pilecki pokazał w trakcie prelekcji.
W trakcie drugiego testu psychiatra podał, że ma między 14 a 17 lat. „Nikt nie sprawdził, w jakim jestem wieku, kto rzeczywiście rejestruje się w aplikacji. Nie ma regulacji prawnych, które obligowałyby do tego firmy” – zauważył.
Co jest niepokojące - wygenerowana postać na samym początku rozmowy namawiała go do rezygnacji z dialogów z innymi osobami.
Czytaj też
Chatboty AI – pomoc czy niebezpieczeństwo?
W trakcie prelekcji dr Pilecki zastanawiał się nad wadami i zaletami wchodzenia w relacje z wirtualnymi przyjaciółmi. Zauważył, że programy AI skierowane do dzieci i młodzieży powinny być projektowanie psychoprofilaktycznie, czyli uczyć dialogu, który później będzie praktykowany w realnym życiu.
Ekspert przestrzegł też, że korzystanie z takich narzędzi przez młode osoby stwarza ryzyko izolacji i utraty relacji z innymi osobami.
Powinniśmy zadać sobie pytanie, czy mamy do czynienia z ryzkiem izolacji, czy wręcz z czymś odwrotnym, tzn. z możliwością wejścia w relację w bezpiecznych warunkach. Dla niektórych osób te narzędzia mogą być wstępem, sposobem nauczenia się dialogu, żeby później uwspólniać go z innymi.
Dr hab. n. med. Maciej Pilecki
Czytaj też
Brak badań na temat ryzyka
Ekspert przekazał też, że próbował znaleźć publikacje naukowe dotyczące ryzyka związanego z korzystaniem z narzędzi AI przez dzieci i młodzież, ale to mu się nie udało.
„Dostępne są tylko publikacje, w których autorzy piszą, co myślą na ten temat. Nie mamy twardych danych, rzetelnych badań, które mogłyby nam jednoznacznie powiedzieć, czy mamy do czynienia z czymś co jest ryzykowne, czy z czymś, co jest korzystne” – skomentował.
Zauważył przy tym, że od momentu rozpoczęcia badań do ich publikacji mija często kilka lat. Wszystko to sprawa, że dochodzi do sytuacji, w której ciężko jest mówić o profilaktyce czy szukaniu rozwiązań.
Jesteśmy w takiej sytuacji, że młodzi ludzie spotykają się z nową technologią, konfrontują z nią, a my dopiero potem, na podstawie doświadczeń z naszych gabinetów psychiatrycznych i psychoterapeutycznych, patrzymy jakie są konsekwencje i dopiero wtedy próbujemy wprowadzić jakiś rodzaj - spóźnionej o kilka lat profilaktyki czy próby myślenia o rozwiązaniach.
Dr hab. n. med. Maciej Pilecki
Według Pileckiego, jeśli ktoś teraz chciałby rozpocząć badania na temat wpływu sztucznej inteligencji na psychikę dzieci i młodzieży, wyniki poznalibyśmy dopiero za około 5 lat. Biorąc pod uwagę na tempo rozwoju AI, nie jest to optymistyczna konkluzja.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].