Cyberbezpieczeństwo
#CyberMagazyn: AI pomoże w tworzeniu pornografii dziecięcej? Problem jest poważny
Rozwój sztucznej inteligencji sprawia, że wraz z nim – oprócz przydatnych i ułatwiających nam życie rozwiązań - pojawiają się nowe zagrożenia. Mowa tu między innymi o tworzeniu obrazów przedstawiających seksualne wykorzystywanie dzieci.
Brytyjska Internet Watch Foundation zajmująca się nadużyciami w sektorze nowych technologii przyjrzała się sztucznej inteligencji i temu, jak AI może być wykorzystywane do generowania obrazów pedofilskich. Blisko 50-stronnicowy raport pokazuje realność zagrożeń, z którymi przychodzi i przyjdzie nam się zmierzyć.
Czytaj też
Niebezpieczny rozwój
Każdy kolejny miesiąc pokazuje nam, w jak zastraszająco szybkim tempie rozwija się sztuczna inteligencja. Wystarczył rok, aby jakość obrazów generowanych przez nią zyskał zupełnie nowy wymiar. Jeszcze na początku tego roku mieliśmy do czynienia z pełnymi błędów i mniejszych lub większych wad zdjęć. Dziś, odróżnienie pracy AI od fotografii wykonanej przez profesjonalistę wymaga wprawnego oka. Pokazuje to zaprezentowany w raporcie przykład:
Czytaj też
Czarny scenariusz
Wspomniany rozwój to również coraz większe zagrożenia.
„To, co odkryliśmy potwierdza naszego najgorsze obawy. Ta technologia »AI-red.« jest używana do generowania obscenicznych obrazów z udziałem dzieci” – napisała we wstępie do raportu Susie Hargreaves, dyrektor generalna IWF. Problemem jest m.in to, że przestępcy nie mają żadnych problemów ze ściągnięciem materiałów potrzebnych do wygenerowania tego typu obrazów.
Zdaniem Hargreaves, rozwój AI CSAM (materiały stworzone przez AI przedstawiające wykorzystanie seksualne dzieci – red.) spowoduje, że walka z pedofilią na poziomie międzynarodowym będzie jeszcze bardziej utrudniona, a skuteczna misja IWF - którą jest m.in. chęć pozbycia się materiałów pedofilskich z sieci - stanie się praktycznie awykonalna.
Niestety, pomysłowość przestępców jest ogromna, a narzędzia sztucznej inteligencji sprawiają, że zyskują oni dodatkowe „wsparcie”. Jak czytamy w raporcie, istnieją już obrazy CSAM (org. Child Sexual Abuse Material), które powstały z wykorzystania zdjęć znanych osób, odpowiednio je „odmłodziły” i wygenerowały „rozebrany” obraz „młodego celebryty”. Inna „innowacja” ma powodować, że po wgraniu twarzy zdjęcia wybranego dziecka, generator przedstawi je w negliżu…
Myślenie, że tego typu treści spowodują „wyciszenie” i „zaspokojenie” zainteresowanych są mrzonką i naiwnością. Wiele wskazuje na to, że będzie wprost przeciwnie. Z badań, o których informował IWF wynika, że więcej niż połowa badanych obawia się, że oglądanie CSAM może prowadzić do seksualnego wykorzystania dzieci w życiu realnym.
Czytaj też
Co można zrobić?
W celu walki z rozprzestrzenianiem się szkodliwego zjawiska potrzebna jest współpraca na wielu szczeblach. Chodzi między innymi o regulacje prawne, które ułatwią usuwanie takich treści.
W walkę z AI CSAM muszą też zaangażować się firmy technologiczne. Ich zadaniem jest nie tylko jasne zaznaczenie w warunkach użytkowania, że używanie AI do tworzenia treści z pornografią dziecięcą jest zakazane, ale również techniczne uniemożliwianie generowania takich obrazów.
„Mamy wiele do zrobienia, ale wierzę, że to co wytworzyła AI, będzie w stanie rozwiązać” – napisała Susie Hargreaves, która wspomniała również o uczestnictwu IWF w Globalnym Szczycie AI, do którego doszło w Wielkiej Brytanii na początku listopada. Pozostaje mieć nadzieję, że za raportem pójdą czyny, które pomogą ograniczać obrzydliwy proceder pedofilii w sieci.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:*[email protected].*
Haertle: Każdego da się zhakować
Materiał sponsorowany