Reklama

Cyberbezpieczeństwo

Kilka tysięcy obrazów dziecięcego porno w bazie AI. Problem coraz poważniejszy

AI wykorzystuje materiały przedstawiające nagie dzieci do generowania treści.
AI wykorzystuje materiały przedstawiające nagie dzieci do generowania treści.
Autor. Robert Collins/Unsplash

Generatory zdjęć AI były trenowane na nagich zdjęciach najmłodszych. Najnowsze badania pokazują, że nawet kilka tysięcy obrazów, przedstawiających wykorzystywanie seksualne dzieci znajduje się w bazie danych sztucznej inteligencji.

Reklama

Uniwersytet Stanforda (dokładnie Stanford Internet Observatory) opublikował raport, w którym informuje o tym, że przeszło 3,2 tys. obrazów przedstawiających wykorzystywanie seksualne dzieci jest w bazie danych sztucznej inteligencji LAION (org. Large-scale Artificial Intelligence Open Network). W samej bazie znajdują się miliardy zdjęć, z których korzystają różne generatory sztucznej inteligencji (m.in. Stable Diffusion). Więcej na temat samego LAION pisaliśmy m.in. w tym tekście.

Reklama

Przedstawione wyniki to rezultat współpracy uczelni z Kanadyjskim Centrum Ochrony Dzieci i innymi organizacjami, przeciwdziałającymi molestowaniu najmłodszych. Celem kooperacji jest identyfikacja nielegalnych materiałów, ich likwidacja i zgłaszanie organom ścigania linków odsyłających do oryginalnych zdjęć.

Raport Stanforda obala tezę mówiącą o tym, że obrazy prezentujące nagie dzieci wygenerowane przez AI, powstają wyłącznie w wyniku łączenia materiałów pornograficznych przedstawiających osoby dorosłe i zdjęcia dzieci (nie będące pornografią).

Reklama

Zdaniem współtwórcy raportu Davida Thiela ze Stanford Internet Observatory, pokazuje to problem, leżący u podstaw szkolenia AI. „Przeszukiwanie internetu i wykorzystywanie zbioru danych do trenowania modeli nie powinno działać na zasadzie open souce i bez większego nadzoru” – stwierdził.

Czytaj też

Jak z tym walczyć?

Czy tej sytuacji można jakoś zaradzić? Może być trudno. O ile najnowsza wersja modelu AI Stable Diffusion (zamieniającego tekst na obraz) nie tworzy zbyt często szkodliwych treści, o tyle wersja z roku 2022 już tak. To właśnie ona – zdaniem badaczy – jest modelem cieszącym się największą popularnością użytkowników. „Ten model jest na wielu komputerach lokalnych i niewiele z tym można zrobić” – uważa Kanadyjskie Centrum Ochrony Dzieci.

Stanford Internet Observatory wzywa do radykalnych posunięć. Jak czytamy na stronie Associated Press, jednym z pomysłów jest to, aby podmioty budujące zestawy szkoleniowe oparte o bazę danych LAION-5B usunęły je lub były otwarte na współpracę z instytucjami oczyszczającymi internet ze szkodliwych materiałów. Najbardziej radykalnym posunięciem jest sugestia dotycząca likwidacji starszej wersji Stable Diffusion.

Czytaj też

Problem coraz poważniejszy

Na temat wykorzystywania AI do generowania pornografii dziecięcej piszemy na łamach CyberDefence24 od pewnego czasu. Na początku listopada przyglądaliśmy się raportowi brytyjskiej Internet Watch Foundation zajmującej się nadużyciami w sektorze nowych technologii. Badania nie pozostawiały złudzeń – AI wykorzystywana jest do generowania obrazów pedofilskich. Z kolei kilka tygodni później opisywaliśmy problem brytyjskich szkół, które mierzą się z plagą pornograficznych obrazów uczniów generowanych przez…rówieśników.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama