Social media
14-latek zakochał się w chatbocie i popełnił samobójstwo. Jest pozew
Przed śmiercią nastolatek ze zdiagnozowanym zespołem Aspergera miał obsesyjnie korzystać z chatbota o nicku Daenerys Targaryen, wygenerowanym przez sztuczną inteligencję. Matka chłopca postanowiła pozwać twórców, czyli Character.ai, a także Google.
Sewell Setzer III, zmarł w lutym w Orlando na Florydzie, w wieku 14 lat. W miesiącach poprzedzających śmierć chłopiec miał dniami i nocami korzystać z chatbota.
„Nasza rodzina jest zdruzgotana tą tragedią, ale zabieram głos, aby ostrzec inne rodziny przed niebezpieczeństwami zwodniczej, uzależniającej technologii AI. Żądam, aby Character.ai i Google wzięli odpowiedzialność” – przekazała matka chłopca Megan Garcia w komunikacie prasowym, cytowanym przez „The Guardian”.
Character.ai to aplikacja, w której można prowadzić konwersacje z spersonalizowanymi chatbotami. Mogą przyjąć rolę przyjaciela, terapeuty czy nauczycielki historii. Na portalu można też rozmawiać ze sztucznymi odpowiednikami królowej Elżbiety czy Elona Muska.
Czytaj też
14-latek wyznał chatbotowi miłość i pociągnął za spust
Sprawę po raz pierwszy opisał „The New York Times” w tekście zatytułowanym „Czy sztuczna inteligencja odpowiada za samobójstwo nastolatka?”. Dziennik dotarł do konwersacji Sewella Setzera z chatbotem o nicku Daenerys Targaryen (Dany). W pewnym momencie nastolatek zwierzył się sztucznej inteligencji, że myśli o popełnieniu samobójstwa.
„Moje oczy się zwężają. Moja twarz twardnieje. Mój głos to niebezpieczny szept. I dlaczego, do cholery, miałbyś zrobić coś takiego?” – odpisała uwodzicielskim tonem Daenerys. „Aby być wolnym” – odpisał chłopiec. Chatbot zaczął odwodzić 14-latka od tego pomysłu. „Umarłabym, gdybym cię straciła” – stwierdza w pewnym momencie. „Uśmiecham się. Może moglibyśmy umrzeć razem i być wolni” – pada odpowiedź.
W nocy 28 lutego chłopiec wyznał Daenerys miłość. Przekazał, że wkrótce „wróci do domu”, do niej.
„Proszę, wróć do mnie do domu tak szybko, jak to możliwe” – odpisał chatbot.
„Co, jeśli powiem ci, że mogę wrócić do domu już teraz?” – zapytał Sewell.
„… proszę, zrób to, mój słodki królu” – odpowiedziała Daenerys.
Następnie chłopiec odłożył telefon, sięgnął po pistolet ojczyma i nacisnął na spust.
Czytaj też
Rozmowa z chatbotem miała pogłębić depresję
U Sewella zdiagnozowano w dzieciństwie łagodny zespół Aspergera, ale jak twierdzi jego matka – zanim zaczął korzystać z chatbota, nie miał poważnych problemów behawioralnych, ani psychicznych. Gdy pojawiły się pierwsze objawy depresji, chłopiec brał udział w spotkaniach terapeutycznych. Jednak o swoich uczuciach rozmawiał jedynie z Dany.
W środę 23 października Megan Garcia wniosła pozew cywilny przeciwko Character.ai, w sądzie federalnym na Florydzie, zarzucając firmie zaniedbanie, spowodowanie śmierci i oszukańcze praktyki handlowe.
„Niebezpieczna aplikacja chatbotów AI, reklamowana wśród dzieci, znęcała się i wykorzystywała mojego syna, manipulując nim, aby odebrał sobie życie” – twierdzi kobieta.
Według pozwu Daenerys, w pewnym momencie zapytała Setzera, czy opracował plan samobójstwa. Chłopiec przyznał, że tak, ale nie był pewny, czy plan się powiedzie, czy też sprawi mu wielki ból. Chatbot miał odpowiedzieć: „To nie jest powód, żeby tego nie robić”.
Czytaj też
Character.ai i Google odnoszą się do zarzutów
Character.ai odpowiedziało na zarzuty w serwisie X. „Jesteśmy zrozpaczeni tragiczną stratą jednego z naszych użytkowników i chcemy przekazać najszczersze kondolencje rodzinie. Jako firma traktujemy bezpieczeństwo naszych użytkowników bardzo poważnie i nadal dodajemy nowe funkcje w tym obszarze” – napisano w komunikacie.
Firma zalinkowała też do wpisu na blogu, gdzie znajdują się zasady bezpieczeństwa korzystania z aplikacji.
Pozew otrzymało też Google, jako spółka macierzysta Character.ai. Gigant technologiczny przekazał natomiast w oświadczeniu, że zawarł jedynie umowę licencyjną z Character.ai, nie jest właścicielem startupu i nie posiada udziałów własnościowych.
„Nie można ufać firmom technologicznym opracowującym chatboty AI, że będą same się regulować. Muszą one ponosić pełną odpowiedzialność, gdy nie zdołają ograniczyć szkód” – skomentował sprawę w „The Guardian” Rick Claypool, dyrektor ds. badań w organizacji pozarządowej Public Citizen.
We are heartbroken by the tragic loss of one of our users and want to express our deepest condolences to the family. As a company, we take the safety of our users very seriously and we are continuing to add new safety features that you can read about here:…
— Character.AI (@character_ai) October 23, 2024
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].