Cyberbezpieczeństwo
Sztuczna inteligencja i bezpieczeństwo dzieci. "Trudno przewidzieć konsekwencje"
Sztuczna inteligencja wpłynie na życie każdego z nas, także tych najmłodszych. Jak mądrze wykorzystać możliwości, które daje nam rozwój AI? Co zrobić, aby czerpiąc z szeregu najnowszych udogodnień, nie zapomnieć o dzieciach i ich bezpieczeństwie?
Z ekspertkami NASK Martyną Różycką, kierowniczką działu reagowania na nielegalne treści w internecie Dyżurnet.pl oraz Anną Rywczyńską, kierowniczką działu profilaktyki cyberzagrożeń w NASK oraz koordynatorką polskiego Centrum Programu Safer Internet rozmawiamy, jak narzędzia sztucznej inteligencji mogą wpłynąć na poziom bezpieczeństwa najmłodszych.
Czytaj też
AI a bezpieczeństwo dzieci
Michał Górski, CyberDefence24: W jaki sposób materiały generowane z użyciem sztucznej inteligencji mogą być zagrożeniem dla nas i naszych dzieci?
Martyna Różycka, kierowniczka działu reagowania na nielegalne treści w internecie Dyżurnet.pl w NASK: Zarówno my dorośli, jak i dzieci musimy nauczyć się z niej korzystać. Jeśli dziecko odrabia pracę domową i jedynym wkładem AI jest „kopiuj – wklej”, to jaki jest sens odrabiania w ten sposób pracy domowej? Ale AI może być też fantastyczną podpowiedzią, np. w jaki sposób napisać esej, jak zaprojektować eksperyment, czy jak zrobić porównanie procesów. Rolą nauczyciela nie jest tylko nauczenie kolejnych faktów i przekazanie wiedzy, ale też wsparcie emocjonalne i stałe reagowanie na trudności. I o ile w tym pierwszym AI może być bardzo pomocna, to przy potrzebie asystowania w rozwoju emocjonalnym potrzebujemy prawdziwego człowieka.
Chciałabym zwrócić też uwagę, że w serwisach popularnych wśród dzieci są „wirtualni przyjaciele”, za którymi stoi AI. I taka rozmowa z wyimaginowanym przyjacielem może być rozmową idealną, a AI idealnym rozmówcą. Jeśli jest to tylko zabawka i dziecko będzie tego świadome, nie zasłania mu to normalnych kontaktów z rówieśnikami czy innymi realnymi ludźmi, to w porządku. Ale prowadzenie „idealnych rozmów z idealnym rozmówcą” może prowadzić do frustracji w życiu, w którym popełniamy błędy komunikacyjne, musimy dbać o przyjaciół, czyli musimy włożyć wysiłek w to, aby ludzie chcieli z nami rozmawiać, bawić się, itd. Musimy nauczyć się odpowiadać również na potrzeby drugiej strony, być wyrozumiałym i empatycznym. Taki „generator konwersacji” nie będzie tego potrzebował.
Musimy też zwracać uwagę na to, czy algorytmy nie wykluczają dzieci i młodzieży, czy nie prowadzą do pogłębiających się różnic. Myślę, że dzieci o specjalnych potrzebach – zarówno te, które mają braki jak i te, które są uzdolnione, przez to, że odstają od grupy rówieśniczej, również mogą być nieadekwatnie oceniane przez AI. Sporo mówi się o etyce, ale chyba wciąż za mało. Tych wyzwań jest więcej i nie jestem pewna, czy dziś potrafimy przewidzieć wszystkie konsekwencje – szczególnie te długoterminowe.
Dzieci coraz mocniej będą przywiązywać się emocjonalnie do narzędzi opartych o najnowsze technologie?
Anna Rywczyńska, kierowniczka działu profilaktyki cyberzagrożeń w NASK oraz koordynatorka polskiego Centrum Programu Safer Internet: Kilka lat temu prowadziliśmy w NASK badania związane z interaktywnymi zabawkami podłączonymi (smart connected), będącymi naturalną kontynuacją rozwoju dziedziny Internetu Rzeczy (Internet of Things – IoT).
I już wówczas, w 2017 i 2018 roku mówiliśmy o zagrożeniach związanych zarówno z ryzykami technologicznymi – na przykład włamaniami do urządzenia, ale również zagrożeniami psychologicznymi, emocjonalnymi dla dziecka, które personifikuje „komunikujące się” z nim urządzenie, dzieli się z nim sekretami, które mogą dostać się w niepowołane ręce, przywiązuje się, ufa, nawiązuje relacje… A wówczas były to lalki/misie/dinozaury dość ograniczone w interakcjach z użytkownikiem, często z zamkniętą bazą tematów i słów i nie tak dobrze jak dziś dopasowujące się do rozmowy inicjowanej przez dziecko.
Jak dialogująca sztuczna inteligencja może wpłynąć na rozwój najmłodszych?
Anna Rywczyńska: Przy dzisiejszych możliwościach interakcji z generatywną, sztuczną inteligencją jeszcze łatwiej o iluzję kontaktu z żywą osobą i rosnące zaufanie ze strony dziecka. Kontynuując obszar badawczy, w ostatnich miesiącach, przyglądamy się wraz z profesorem Jackiem Pyżalskim obawom i szansom, jakie nauczyciele widzą w dialogującej sztucznej inteligencji. W najbliższych miesiącach opublikujemy raport z ilościowych oraz jakościowych badań, z których zarysowuje się obraz potencjalnych korzyści, takich jak choćby możliwość zindywidualizowania lekcji dla każdego ucznia czy wykorzystywania narzędzi jako asystentów procesów edukacyjnych (np. podpowiadających strukturę pracy).
Widać też wiele obaw o spadek kreatywności, ryzyko jeszcze większej ekspozycji na treści szkodliwe czy dezinformacyjne. Wiele z tych obaw na pewno wynika z faktu dość małego doświadczenia nauczycieli w posługiwaniu się tego typu technologiami.
Niestety, nie ulega wątpliwości, że narzędzia sztucznej inteligencji mogą być wykorzystane w niecny sposób. Wskazuje na to m.in. raport brytyjskiej Internet Watch Foundation, która wykazała, że AI wykorzystywana jest do tworzenia pornografii dziecięcej. Jakie mogą być konsekwencje takiego działania?
Martyna Różycka: Po pierwsze, nie zalecamy stosowania terminu „pornografia dziecięca”, ponieważ jest to termin mający konotacje z rozrywką oraz branżą pornograficzną. Branżą, w której działają ludzie, którzy są świadomi tego, w czym uczestniczą, materiały są symulowane, a aktorzy są świadomi konsekwencji oraz - co bardzo ważne - mają możliwość wyjścia z tej sytuacji.
Dziecko nie ma tej świadomości oraz samodzielnie nie jest w stanie przeciwdziałać wykorzystywaniu seksualnemu. Zdjęcia czy filmy to zapis przestępstwa, a nie symulacja i gra aktorska. Kodeks karny penalizuje „treści pornograficzne z udziałem osób małoletnich”, ale z tych względów, o których wcześniej wspomniałam, staramy się o zmianę stosowanej terminologii.
Wracając do pytania - rozumiem, że dotyczy ono treści związanych z seksualnym wykorzystywaniem, przemocą, cyberprzemocą, szantażem na tle seksualnym, a nie ogólnie o treści wytworzone z użyciem AI. Mając do czynienia z treściami, które nie są prawdziwe, ale pokazują realistyczny obraz konkretnego dziecka w sytuacji, która nigdy nie miała miejsca, to po pierwsze: nie jestem pewna, czy dziecko będzie rozumiało tutaj kontekst technologiczny.
Po drugie, jest to naruszenie, które może zachwiać poczuciem bezpieczeństwa dziecka i powoduje u niego odczucia takie, jak przy każdej formie przemocy: osamotnienia, niezrozumienia, buntu, zachwiania poczucia własnej wartości, zachwiania poczucia bezpieczeństwa. Proszę zobaczyć, jak dotknięta jest społeczność skupiona wokół Taylor Swift, kiedy materiały z jej wizerunkiem wytworzone z użyciem AI zostały opublikowane.
Kodeks karny, AI a wizerunek dzieci
Jakie treści dokładnie są przez państwa analizowane?
Martyna Różycka: Treści, które analizuje Zespół Dyżurnet.pl, przedstawiają seksualne wykorzystywanie dzieci, a sprawcy korzystając z AI, tworzą materiały realnych dzieci przedstawiające ich seksualne wykorzystywanie. Utrwalone na materiałach mogą być osoby, które były kiedyś wykorzystywane, a dziś już są dorosłe lub przekroczyły ten wiek, który sprawca uważa za najbardziej atrakcyjny i tworzy kolejne materiały zgodne ze swoimi preferencjami.
Trochę innym przypadkiem są dzieci – celebryci, które nie były wykorzystywane seksualnie, ale sprawcy tworzą materiały z ich udziałem. Jeszcze inna sytuacja jest wtedy, gdy dziecko jest szantażowane, aby wytworzyło treści intymne, a materiały wygenerowane z jego osobą, służą instrukcji albo szantażowi, którego celem jest produkcja prawdziwego materiału.
Zupełnie innym podejściem jest to, że sprawcy uczą się, jak rozmawiać i uwodzić dziecko. Nie każdy dorosły jest na bieżąco z modami świata dziecięcego, a dzięki dostępowi do informacji podanej na talerzu, łatwej wniknąć w świat dzieci i młodzieży.
Dla organów ścigania odróżnienie treści wygenerowanych od rzeczywistych jest kluczowe; zwłaszcza nowe, nieznane materiały są analizowane pod kątem identyfikacji dziecka, aby jak najszybciej zareagować i pomóc. Przy treściach wytworzonych z pomocą AI nigdy nie można mieć pewności, czy prawdziwe dziecko było pierwowzorem i czy jest bezpieczne. Angażowanie - i tak ograniczonych zasobów - przy bardzo wymagającej czasowo analizie, może wpływać na efektywność takich zespołów po stronie policji.
Ponieważ poprzednie pytanie dotyczyło też konsekwencji, to podkreślam, że polski kodeks karny (art. 202 § 4b) zabrania produkcji, rozpowszechniania, posiadania, prezentowania, przechowywania treści o kontekście seksualnym, z wytworzonym lub przetworzonym wizerunkiem małoletniego.
Czy proceder, o którym mówimy jest w ogóle do zatrzymania?
Martyna Różycka: Pomimo regulacji prawnych nie jestem pewna, czy uda się to zatrzymać. Twórcy algorytmów, po pierwszych doniesieniach o łamaniu prawa z użyciem opracowanego przez nich narzędzia, stosują ograniczenia w wytwarzaniu treści przedstawiających seksualne wykorzystywanie dzieci. Ale podobnie jak z innymi narzędziami nie da się ich całkowicie zabezpieczyć przed użyciem niezgodnym z intencją twórców. Co nie oznacza, że mamy z tego rezygnować.
Czytaj też
Uczyć konsekwencji
AI jest też wykorzystywana do tworzenia nielegalnych (obscenicznych) treści przez dzieci, które w ten sposób chcą „dopiec” swoim rówieśnikom. Jak rozmawiać z dziećmi o konsekwencjach, które mogą nieść takie materiały?
Anna Rywczyńska: Badania, w tym badania NASK „Nastolatki 3.0” pokazują, że problem cyberprzemocy jest stale rosnącym zagrożeniem wśród młodych ludzi. W Polsce blisko 44 proc. młodzieży było świadkami przemocy w internecie wobec swoich bliskich znajomych, przyjaciół bądź sami jej doświadczyli.
O tym wielkim problemie wiemy nie tylko z badań, ale też z zapytań płynących ze szkół do naszego Działu Profilaktyki Cyberzagrożeń, z prośbami o przeprowadzenie lekcji dla dzieci lub spotkania dla kadry pedagogicznej, czy rodziców. Nie będzie przesadą jak powiem, że blisko 90 proc. próśb dotyczy zjawiska cyberprzemocy i hejtu wśród dzieci. Kiedy w rozmowach z dziećmi pytamy ich, czego najbardziej się obawiają w kontekście swojej aktywności w sieci, to również agresja jest na pierwszym miejscu.
W tym kontekście nie dziwią więc rosnące obawy o to, czy AI jeszcze tej sytuacji nie pogorszy, ponieważ już nawet nie będzie trzeba „czyhać” na prześmiewcze ujęcie kolegi, koleżanki, tylko wystarczy je samodzielnie wygenerować korzystając z dostępnych zdjęć danej osoby w sieci. A faktycznie aplikacje pozwalające na wykonywanie takich przeróbek są coraz powszechniejsze i bardzo łatwe do obsługiwania.
Da się temu zapobiec?
Anna Rywczyńska: Coraz większy nacisk będzie więc musiał być kładziony na profilaktykę takich zachowań przemocowych wśród dzieci, poprzez budowanie relacji w grupie, uświadamianie konsekwencji – zarówno emocjonalnych, które ponosi ofiara, ale też potencjalnych konsekwencji, które mogą spotkać osobę inicjującą przemoc cyfrową. W tym działaniu bardzo ważne jest współdziałanie środowiska szkolnego z rodzicami, żeby wspólnie umieć odpowiednio wcześnie rozpoznać sytuacje ryzykowną, móc szybko wdrożyć procedurę reagowania, jeśli coś złego zadzieje się pomiędzy dziećmi online.
Do tego dochodzą oczywiście ryzyka związane z produkowaniem tego rodzaju krzywdzących materiałów przez osobę, której dziecko nie zna, która chce je zastraszyć, szantażować, wówczas również niezwykle ważna jest dobra relacja z rodzicami/opiekunami, która pozwoli dziecku szybko zwrócić się do nich o pomoc. Dzisiaj wiemy, że młodzi ludzie nie szukają pomocy u dorosłych tak często, jak byśmy chcieli. Obawiają się obwiniania, zabrania telefonu, nie wierzą, że jako dorośli będziemy potrafili im skutecznie i z uważnością dla ich emocji im pomóc.
Cyberprzemoc wśród dzieci i nastolatków
Pojawia się tu pytanie dotyczące cyberprzemocy wśród dzieci i nastolatków. Jak walczyć z tym zjawiskiem?
Martyna Różycka: Cyberprzemoc i jej przeciwdziałanie zaczyna się od nauki szacunku wobec innych ludzi, a nie na poziomie narzędzi. Powinniśmy uczyć szacunku i tolerancji, ale także umiejętności pracy w grupie, umiejętności wyrażania własnych emocji, rozwiązywania konfliktów. Pomocny jest również dystans wobec siebie, umiejętność żartowania itd. Trochę brakuje w polskich szkołach świadomego budowania zespołów, a przecież dzieci żyją ze sobą i muszą przebywać znacznie dłużej niż my dorośli jesteśmy w tym samym zespole w pracy.
Pojawia się kwestia rodziców i ich podejścia do wychowania…
Martyna Różycka: Rodzice i opiekunowie, którzy nie do końca mogą wpływać na to, w jaki sposób odbywają się np. zajęcia wychowawcze, mogą i powinni na swoim przykładzie pokazywać, czyli modelować pożądane zachowania. Zobaczmy, jak my reagujemy w sytuacji konfliktowej – czy walczymy, czy rozmawiamy, czy dajemy się ponieść emocjom, czy przepraszamy i umiemy przyznać się do błędu, czy jesteśmy ciekawi innych ludzi? Jak wypowiadamy się o innych ludziach za ich plecami i czy to jest ta postawa, którą byśmy chcieli zobaczyć u swoich dzieci?
Do tego rachunku sumienia dodałabym sprawdzenie, jak my jako rodzice i opiekunowie publikujemy informacje o naszych dzieciach – z ich pozwoleniem, czy wbrew ich woli (szczególnie nastolatków); czy posty z ich udziałem były pisane z dumą, czy wyśmiewające i raniące ich uczucia. I dopiero po wykonaniu takiego podsumowania podjęłabym rozmowę, co krzywdzi i dlaczego tak łatwo nam jest stosować cyberprzemoc.
Trzeba też nauczyć dzieci tego, że każdy z nas ma gdzie indziej postawione granice. Zobaczmy u siebie, gdzie mamy ten dystans do siebie, a gdzie nawet niewinne żarty dotykają nas do żywego. I nauczymy się, że inni mogą mieć tak samo. Młodzi ludzie chętnie korzystają z nowinek, a przemoc była między ludźmi od zawsze. Natomiast jesteśmy istotami rozumnymi i możemy z niej zrezygnować na rzecz komunikacji.
Czytaj też
Sztuczna inteligencja szansą?
Czy AI może być nie tylko zagrożeniem, ale również szansą dla dzieci i rodziców?
Martyna Różycka: Mam nadzieję, że wszyscy spoglądamy na AI jako na wielką szansę, ale jak przy każdej nowości musimy wszyscy przyglądać się, jakie zmiany nam przynosi – krótko- i długofalowe. Jeśli będziemy mieli duże rozwarstwienie pomiędzy edukatorami oraz osobami z branży technologicznej, to nie buduje to wzajemnego porozumienia.
Ponieważ mamy też do czynienia z ideami, których do tej pory nie było, to należy przyjąć perspektywę bezpieczeństwa użytkowników jako najważniejszą i wokół tej idei budować produkt czy usługę.Safety by design pozwala na skupienie się na potrzebach użytkowników i sprawdzaniu przez cały czas, co z naszym produktem może zrobić użytkownik.
Anna Rywczyńska: W „oswojeniu” sztucznej inteligencji na pewno pomogą tez regulacje, które powstają obecnie na całym świecie i które poza kwestiami bezpieczeństwa tej technologii sporo miejsca będą musiały też poświęcać kwestiom etycznym. Pamiętajmy też, żeby do tych szerokich dyskusji o potencjale i zagrożeniach sztucznej inteligencji włączać również młodych ludzi, chcieć poznawać ich perspektywę, ich obawy, to bardzo mocno wzbogaci wszelki dyskurs prowadzony wokół nowych technologii i pozwoli nam faktycznie poznać, jakiej pomocy i wsparcia młodzi ludzie od nas najbardziej potrzebują.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].