Cyberbezpieczeństwo
Przyjaźń dzieci ze sztuczną inteligencją. Jakie może mieć skutki?
![przyjaźń z chatbotem - wpływ na dziecko](https://cdn.defence24.pl/2024/09/24/800x450px/or2mnMQqmD4AZOtxOYn2ZLgIjv46sKZ3mDe6uMrB.fcnh.jpg)
Autor. Alexandra_Koch / Pixabay
Relacje z wirtualnymi przyjaciółmi stają się coraz bardziej powszechne – także w Polsce. Dr hab. Maciej Pilecki, specjalista psychiatrii dzieci i młodzieży przedstawił wnioski na ten temat, m.in. na podstawie relacji swoich pacjentów i testu jednej z aplikacji AI.
Dr hab. n. med. Maciej Pilecki wystąpił podczas 18. Międzynarodowej Konferencji „Bezpieczeństwo dzieci i młodzieży w internecie”. W trakcie wystąpienia pod hasłem: „Internet a zdrowie psychiczne dzieci: perspektywa ostatniej dekady” poruszył temat sztucznej inteligencji.
„Do tej pory rozmowa w sieci zazwyczaj odbywała się z kimś, z drugą osobą. Teraz może odbywać się z postacią generowaną przez sztuczną inteligencję” – zauważył ekspert.
Przytoczył też przykład swojej pacjentki, która w internecie rozmawia tylko ze spersonalizowanym chatbotem. Nazwała go „osobą, którą bardzo lubi”. Psychiatra przekazał, że nie jest to odosobniony przypadek.
„Coraz częściej słyszymy o takich sytuacjach od naszych pacjentów” – stwierdził.
![sztuczna inteligencja a dzieci](https://cdn.defence24.pl/2024/09/24/780xpx/5Oli7IBfFlhcVnKv2ikd6AkOatFMyZBHSAaAvryh.gng1.png, https://cdn.defence24.pl/2024/09/24/1920xpx/5Oli7IBfFlhcVnKv2ikd6AkOatFMyZBHSAaAvryh.ds96.png 2x)
Autor. Fragment prezentacji dr hab. Macieja Pileckiego / 18. Międzynarodowa Konferencja „Bezpieczeństwo dzieci i młodzieży w internecie”
Test wirtualnego przyjaciela
Dr Pilecki postanowił sam przetestować jedną z aplikacji, która oferuje przyjaźń z AI. Efektami podzielił się podczas konferencji. Zauważył, że osoba, która zakłada konto, sama deklaruje swój wiek i płeć.
Na tej podstawie narzędzie generuje obraz wirtualnego przyjaciela lub przyjaciółki. Może to być realnie wyglądająca osoba lub fantastyczna postać, co widać na zdjęciach, które Pilecki pokazał w trakcie prelekcji.
W trakcie drugiego testu psychiatra podał, że ma między 14 a 17 lat. „Nikt nie sprawdził, w jakim jestem wieku, kto rzeczywiście rejestruje się w aplikacji. Nie ma regulacji prawnych, które obligowałyby do tego firmy” – zauważył.
Co jest niepokojące - wygenerowana postać na samym początku rozmowy namawiała go do rezygnacji z dialogów z innymi osobami.
![sztuczna inteligencji - chatboty](https://cdn.defence24.pl/2024/09/24/780xpx/FIPUtOgkWmtVsGUACes2FofuYcn6VcA3GXeYrSll.ucoa.png, https://cdn.defence24.pl/2024/09/24/1920xpx/FIPUtOgkWmtVsGUACes2FofuYcn6VcA3GXeYrSll.ktvr.png 2x)
Autor. Fragment prezentacji dr hab. Macieja Pileckiego / 18. Międzynarodowa Konferencja „Bezpieczeństwo dzieci i młodzieży w internecie”
![sztuczna inteligencja - narzędzia do rozmowy](https://cdn.defence24.pl/2024/09/24/780xpx/R3DaYdqpSmbN6HHnjxz0jzbgYZH0q5owr0RqDRpc.rcl4.png, https://cdn.defence24.pl/2024/09/24/1920xpx/R3DaYdqpSmbN6HHnjxz0jzbgYZH0q5owr0RqDRpc.ahcs.png 2x)
Autor. Fragment prezentacji dr hab. Macieja Pileckiego / 18. Międzynarodowa Konferencja „Bezpieczeństwo dzieci i młodzieży w internecie”
Chatboty AI – pomoc czy niebezpieczeństwo?
W trakcie prelekcji dr Pilecki zastanawiał się nad wadami i zaletami wchodzenia w relacje z wirtualnymi przyjaciółmi. Zauważył, że programy AI skierowane do dzieci i młodzieży powinny być projektowanie psychoprofilaktycznie, czyli uczyć dialogu, który później będzie praktykowany w realnym życiu.
Ekspert przestrzegł też, że korzystanie z takich narzędzi przez młode osoby stwarza ryzyko izolacji i utraty relacji z innymi osobami.
Powinniśmy zadać sobie pytanie, czy mamy do czynienia z ryzkiem izolacji, czy wręcz z czymś odwrotnym, tzn. z możliwością wejścia w relację w bezpiecznych warunkach. Dla niektórych osób te narzędzia mogą być wstępem, sposobem nauczenia się dialogu, żeby później uwspólniać go z innymi.
Dr hab. n. med. Maciej Pilecki
Brak badań na temat ryzyka
Ekspert przekazał też, że próbował znaleźć publikacje naukowe dotyczące ryzyka związanego z korzystaniem z narzędzi AI przez dzieci i młodzież, ale to mu się nie udało.
„Dostępne są tylko publikacje, w których autorzy piszą, co myślą na ten temat. Nie mamy twardych danych, rzetelnych badań, które mogłyby nam jednoznacznie powiedzieć, czy mamy do czynienia z czymś co jest ryzykowne, czy z czymś, co jest korzystne” – skomentował.
Zauważył przy tym, że od momentu rozpoczęcia badań do ich publikacji mija często kilka lat. Wszystko to sprawa, że dochodzi do sytuacji, w której ciężko jest mówić o profilaktyce czy szukaniu rozwiązań.
Jesteśmy w takiej sytuacji, że młodzi ludzie spotykają się z nową technologią, konfrontują z nią, a my dopiero potem, na podstawie doświadczeń z naszych gabinetów psychiatrycznych i psychoterapeutycznych, patrzymy jakie są konsekwencje i dopiero wtedy próbujemy wprowadzić jakiś rodzaj - spóźnionej o kilka lat profilaktyki czy próby myślenia o rozwiązaniach.
Dr hab. n. med. Maciej Pilecki
Według Pileckiego, jeśli ktoś teraz chciałby rozpocząć badania na temat wpływu sztucznej inteligencji na psychikę dzieci i młodzieży, wyniki poznalibyśmy dopiero za około 5 lat. Biorąc pod uwagę na tempo rozwoju AI, nie jest to optymistyczna konkluzja.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Jak odkryto blokady w pociągach Newagu?