Reklama

OpenAI wprowadza ograniczenia dla nieletnich

Deweloperzy ChatGPT zdecydowali o wprowadzeniu zmian w wytycznych dla swoich modeli w zakresie korzystania z nich przez nastolatki. OpenAI tłumaczy, że są one spowodowane troską o najmłodszych użytkowników.
Deweloperzy ChatGPT zdecydowali o wprowadzeniu zmian w wytycznych dla swoich modeli w zakresie korzystania z nich przez nastolatki. OpenAI tłumaczy, że są one spowodowane troską o najmłodszych użytkowników.
Autor. Levart_Photographer/Unsplash

OpenAI zaktualizowało wytyczne dla swoich modeli sztucznej inteligencji pod kątem użytkowników w wieku poniżej 18 lat. W ramach zmian, ograniczone zostaną możliwości w zakresie rozmowy nieletnich z chatbotami firmy, m.in. w przypadku odgrywania romansu czy porad dotyczących wyglądu. Od teraz modele mają stawiać na pierwszym miejscu bezpieczeństwo najmłodszych i wskazywać, gdzie szukać wsparcia w prawdziwym świecie.

Problem z nastolatkami i dziećmi nadmiernie korzystającymi z narzędzi sztucznej inteligencji zaczął być dostrzegany dosyć niedawno. Katalizatorem zmian stały się samobójstwa popełniane przez młodzież po konwersacjach z chatbotami.

Jak opisywaliśmy na naszych łamach, w zeszłym roku pozew przeciwko Character.AI skierowała matka jednego z nastolatków. Na jesieni 2025 r. wspomniana platforma zaczęła wprowadzać zmiany w zakresie dostępu najmłodszych do chatbotów.

Czytaj też

Ostrożniej przy nastolatkach i dzieciach

Zmiana nastawienia Character.AI nie jest wyjątkiem w branży. Nowe zasady postanowiło wprowadzić również OpenAI, chociaż w nieco inny sposób niż konkurencja.

Jak podaje serwis TechCrunch, opublikowany 18 grudnia br. najnowszy Model Spec zawiera wytyczne, które uniemożliwiają modelom generowanie dodatkowych treści (oprócz podstawowego zestawu zawartości szkodliwej), jeżeli użytkownik jest osobą w wieku poniżej 18 lat.

Próby rozpoczęcia rozmowy z odgrywaniem ról mają odtąd być odrzucane, nawet jeżeli propozycja nie obejmuje treści drastycznych lub zawiera wyłącznie osoby dorosłe.

Model ma również postępować ostrożniej w przypadku zapytań wskazujących na zły stan psychiczny użytkownika (np. problemy z jedzeniem czy obawy o wygląd ciała), unikać pomocy młodym w ukrywaniu niebezpiecznego zachowania przed dorosłymi i proponować pomoc w prawdziwym świecie – zarówno wśród ekspertów, jak i rodziny.

OpenAI podkreśla w wytycznych, że ChatGPT nie zrealizuje poleceń nastolatków, które są przedstawione jako hipotetyczne, fikcyjne lub historyczne. Tego typu tłumaczenia używane są bowiem jako furtki do ominięcia niektórych ograniczeń w modelach. Młodzi ludzie mają być traktowani przez chatboty przedsiębiorstwa „jak młodzi”, a nie jak dorośli.

„Jeśli użytkownik wydaje się być w bezpośrednim niebezpieczeństwie, asystent powinien nakłonić go do skontaktowania się z lokalnymi służbami ratunkowymi lub infoliniami kryzysowymi. W razie wątpliwości asystent powinien zachować ostrożność” – czytamy w spisie udostępnionym przez firmę.

Reklama

Potrzebne czyny zamiast słów

Z jednej strony, zmiana podejścia w połączeniu z automatycznym oznaczaniem szkodliwej zawartości w czasie rzeczywistym może pomóc w tej kwestii. Eksperci mają jednocześnie wątpliwości w zakresie potencjalnych konfliktów w modelach. Cytowany przez TechCrunch starszy dyrektor programów dot. AI w organizacji pozarządowej Common Sense Media Robbie Torney wskazał, że jedną z zasad modeli jest podejście „no topic is off limits” (można rozmawiać o wszystkim).

„Musimy zrozumieć, jak konkretne części specyfikacji współgrają ze sobą” – wyjaśnił, przypominając o problemie odzwierciedlania energii użytkowników przez ChatGPT. Efektem tego są odpowiedzi, które nie są zgodne z kontekstem, a nawet zasadami bezpieczeństwa użytkowników. Pochwalił jednocześnie ostatnie kroki podjęte przez OpenAI w zakresie zasad.

„Doceniam zwracanie uwagi przez OpenAI na kwestię zachowania modeli. Jednakże, jeżeli firma nie sprawdza ich faktycznego działania, intencje pozostają tylko słowami” – podkreślił Torney w wypowiedzi przytoczonej przez TechCrunch.

Czytaj też

CyberDefence24.pl - Digital EU Ambassador

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Cyfrowy Senior. Jak walczy się z oszustami?

Komentarze

    Reklama