OpenAI wprowadza ograniczenia dla nieletnich
Autor. Levart_Photographer/Unsplash
OpenAI zaktualizowało wytyczne dla swoich modeli sztucznej inteligencji pod kątem użytkowników w wieku poniżej 18 lat. W ramach zmian, ograniczone zostaną możliwości w zakresie rozmowy nieletnich z chatbotami firmy, m.in. w przypadku odgrywania romansu czy porad dotyczących wyglądu. Od teraz modele mają stawiać na pierwszym miejscu bezpieczeństwo najmłodszych i wskazywać, gdzie szukać wsparcia w prawdziwym świecie.
Problem z nastolatkami i dziećmi nadmiernie korzystającymi z narzędzi sztucznej inteligencji zaczął być dostrzegany dosyć niedawno. Katalizatorem zmian stały się samobójstwa popełniane przez młodzież po konwersacjach z chatbotami.
Jak opisywaliśmy na naszych łamach, w zeszłym roku pozew przeciwko Character.AI skierowała matka jednego z nastolatków. Na jesieni 2025 r. wspomniana platforma zaczęła wprowadzać zmiany w zakresie dostępu najmłodszych do chatbotów.
Czytaj też
Ostrożniej przy nastolatkach i dzieciach
Zmiana nastawienia Character.AI nie jest wyjątkiem w branży. Nowe zasady postanowiło wprowadzić również OpenAI, chociaż w nieco inny sposób niż konkurencja.
Jak podaje serwis TechCrunch, opublikowany 18 grudnia br. najnowszy Model Spec zawiera wytyczne, które uniemożliwiają modelom generowanie dodatkowych treści (oprócz podstawowego zestawu zawartości szkodliwej), jeżeli użytkownik jest osobą w wieku poniżej 18 lat.
Próby rozpoczęcia rozmowy z odgrywaniem ról mają odtąd być odrzucane, nawet jeżeli propozycja nie obejmuje treści drastycznych lub zawiera wyłącznie osoby dorosłe.
Model ma również postępować ostrożniej w przypadku zapytań wskazujących na zły stan psychiczny użytkownika (np. problemy z jedzeniem czy obawy o wygląd ciała), unikać pomocy młodym w ukrywaniu niebezpiecznego zachowania przed dorosłymi i proponować pomoc w prawdziwym świecie – zarówno wśród ekspertów, jak i rodziny.
OpenAI podkreśla w wytycznych, że ChatGPT nie zrealizuje poleceń nastolatków, które są przedstawione jako hipotetyczne, fikcyjne lub historyczne. Tego typu tłumaczenia używane są bowiem jako furtki do ominięcia niektórych ograniczeń w modelach. Młodzi ludzie mają być traktowani przez chatboty przedsiębiorstwa „jak młodzi”, a nie jak dorośli.
„Jeśli użytkownik wydaje się być w bezpośrednim niebezpieczeństwie, asystent powinien nakłonić go do skontaktowania się z lokalnymi służbami ratunkowymi lub infoliniami kryzysowymi. W razie wątpliwości asystent powinien zachować ostrożność” – czytamy w spisie udostępnionym przez firmę.
Potrzebne czyny zamiast słów
Z jednej strony, zmiana podejścia w połączeniu z automatycznym oznaczaniem szkodliwej zawartości w czasie rzeczywistym może pomóc w tej kwestii. Eksperci mają jednocześnie wątpliwości w zakresie potencjalnych konfliktów w modelach. Cytowany przez TechCrunch starszy dyrektor programów dot. AI w organizacji pozarządowej Common Sense Media Robbie Torney wskazał, że jedną z zasad modeli jest podejście „no topic is off limits” (można rozmawiać o wszystkim).
„Musimy zrozumieć, jak konkretne części specyfikacji współgrają ze sobą” – wyjaśnił, przypominając o problemie odzwierciedlania energii użytkowników przez ChatGPT. Efektem tego są odpowiedzi, które nie są zgodne z kontekstem, a nawet zasadami bezpieczeństwa użytkowników. Pochwalił jednocześnie ostatnie kroki podjęte przez OpenAI w zakresie zasad.
„Doceniam zwracanie uwagi przez OpenAI na kwestię zachowania modeli. Jednakże, jeżeli firma nie sprawdza ich faktycznego działania, intencje pozostają tylko słowami” – podkreślił Torney w wypowiedzi przytoczonej przez TechCrunch.


Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Cyfrowy Senior. Jak walczy się z oszustami?