Technologie
Czy jesteśmy gotowi na AI w operacjach informacyjnych?
Sztuczna inteligencja w ciągu tego roku odmieniana jest przez wszystkie przypadki. W rozmowie o innowacjach nie możemy zapomnieć jednak o zagrożeniach - przede wszystkich tych, które wiążą się z wykorzystaniem nowych technologii w sferze informacyjnej i w działaniach cyberofensywnych.
Sztuczna inteligencja to technologia, która w 2023 roku jest na ustach wszystkich. Potocznie rozumiana - ta w algorytmach zasilających duże modele językowe takie jak ChatGPT oraz ta, o której mniej mówi się w mediach, ale więcej w świecie badań i rozwoju - silna sztuczna inteligencja - jest tematem licznych debat, dotyczących nie tylko szans, które stawia przed cyfrową gospodarką, ale i zagrożeń - takich jak m.in. te w sferze informacyjnej.
Jedną z takich dyskusji odbyli uczestnicy konferencji Cyber24Day, która 10 października tego roku odbyła się w Warszawie. Podczas czwartej edycji tego wydarzenia w panelu zatytułowanym: „Sztuczna inteligencja w operacjach informacyjnych. Czy jesteśmy gotowi?” udział wzięli: dr hab. nauk prawnych prof. Akademii Sztuki Wojennej Katarzyna Chałubińska-Jentkiewicz; ekspert Akademickiego Centrum Komunikacji Strategicznej płk Tomasz Gergelewicz; dyrektor Forum Cyfrowego Związku Przedsiębiorców i Pracodawców Paulina Szkoła, a także dyrektor Departamentu Cyberbezpieczeństwa w Ministerstwie Cyfryzacji - płk Łukasz Wojewoda.
Sztuczna inteligencja jako szansa
Prof. Katarzyna Chałubińska-Jentkiewicz oceniła, że o zagrożeniach w kontekście AI mówi się zbyt często - bo przede wszystkim jest to szansa. „Muszę stanowczo podkreślić, że każda nowa technologia kojarzy nam się przede wszystkim z rozwojem cywilizacyjnym. Za postępem oczywiście idą pewne nowe zagrożenia, ale wiadomo, że za zagrożeniami postępuje również litera prawa, sztuczna inteligencja zaś daje nam także dużo dobrych rzeczy” - powiedziała.
Jak dodała, negatywnie postrzega przykład doniesień z Włoch, które rzekomo miały zablokować rozwój sztucznej inteligencji. Chałubińska-Jentkiewicz dodała, że jak się później okazało, „był to fake news”, natomiast szerszym problemem jest brak regulacji, które odnosiłyby się do nowego zjawiska, jakim jest AI. „Regulacje pojawiają się dopiero wtedy, kiedy mamy do czynienia z zagrożeniami, kiedy nie ma innego sposobu na działania związane z zapobieganiem pewnym zjawiskom, które są niekorzystne i niezgodne z interesem publicznym, z bezpieczeństwem publicznym, moralnością publicznym czy porządkiem, ochroną środowiska, ochroną zdrowia, czy prawami osób trzecich” - mówiła.
„Tylko w ten sposób możemy przy zastosowaniu tych przesłanek ograniczać działanie sztucznej inteligencji - czyli tylko w sytuacjach, kiedy pojawiają się zagrożenia. Natomiast, sama sztuczna inteligencja jest potrzebna, to dobrodziejstwo. Każda nowa technologia to dar od Boga” - powiedziała prof. Chałubińska-Jentkiewicz.
Zagrożenie deep fake'ami
Płk Gergelewicz powiedział, że z perspektywy rozmowy o zagrożeniach, jego zdaniem jednym z bardziej istotnych są deep fakes, czyli zmanipulowane lub całkowicie wygenerowane przez sztuczną inteligencję materiały podszywające się pod zdjęcia, nagrania wideo lub audio.
„Uczenie maszynowe to niesamowicie zaawansowane narzędzie, które z jednej strony może nam służyć jako rozrywka, ale z drugiej strony - możemy w czasie rzeczywistym włożyć w usta każdej dowolnej osoby dowolne słowa, których nigdy nie wypowiedziała. Wykorzystujemy więc czyjąś osobę, czyjś wizerunek do naszego przekazu i tutaj bardziej z pola wojskowego - z mojego punktu widzenia - rodzi to ogromne wyzwanie, a nazywając rzeczy po imieniu - będzie to problem, a legislacja, czy to europejska czy krajowa, nie nadąża za rozwojem technologicznym. Jesteśmy zawsze krok wstecz, jesteśmy w defensywie” - mówił płk Gergelewicz.
Jego zdaniem zjawisko deep fakes to ogromne wyzwanie dla całego obszaru edukacji, dla systemu prawnego i wszystkich filtrów, które dotyczą mediów oraz platform społecznościowych. „Najsłabszym elementem jest oczywiście człowiek i jego ślepa wiara w to, że to co czyta np. na portalach społecznościowych, to prawda” - podkreślił.
Czy regulacje AI nas ochronią?
Związana z ZPP Paulina Szkoła pytana o to, jak przeciwdziałać nadużyciom z wykorzystaniem AI oraz jak naprawić rzeczywistość regulacyjną, która jest spóźniona w stosunku do rozwoju nowych technologii, powiedziała, że przede wszystkim uważa sztuczną inteligencję za „wielkie dobrodziejstwo”.
„Sztuczna inteligencja jest jak nóż. Możemy albo wykorzystywać go odpowiednio, albo zrobić z nim coś złego. Ten nóż poprzez ChatGPT dotarł do ogromnej liczby osób, zebrał prawie 100 mln użytkowników w ciągu miesiąca. Musimy zdawać sobie sprawę że to jest więcej niż Instagram i TikTok, które do tej pory były najpopularniejszymi aplikacjami. Rozporządzenie Akt o sztucznej inteligencji zostało już przyjęte, teraz będziemy świadkami trilogu, podczas którego warto zbierać feedback, obserwować rynek i sprawdzać, jak sztuczna inteligencja jest wykorzystywana. Warto pamiętać też o tym, że regulacje muszą odpowiadać temu, co dzieje się na rynku, abyśmy nie powstrzymywali powstawania innowacji w Europie” - mówiła Szkoła.
Zdaniem płk. Wojewody z Ministerstwa Cyfryzacji, regulacje zawsze będą reaktywne, bo struktury unijne i krajowe to duże struktury, lecz w przypadku AI Actu „mówimy o rozporządzeniu, więc nie będzie potrzebna implementacja krajowa”, a każde państwo członkowskie UE będzie pracowało nad tym, co odpowiada jak najbardziej jego zapotrzebowaniu.
Najważniejsza edukacja, nie dla zakazów
Zdaniem prof. Chałubińskiej-Jentkiewicz, w kontekście zagrożeń takich jak wspomniane wcześniej w dyskusji deep fakes, kluczowa jest edukacja społeczeństwa, która realizowana jest przez polskie instytucje badawcze i media. Naukowczyni wspomniała o inicjatywie NASK, która obejmuje stworzenie centrum wymiany informacji na temat dezinformacji i zagrożeń w infosferze, jednocześnie odpowiedzialnego za prowadzenie działań edukacyjnych oraz współpracę międzysektorową.
Zdaniem płk. Gergelewicza, zakazywanie modeli czy rozwiązań AI nie jest metodą na walkę z nadużyciami, bo wówczas „troszeczkę byśmy zaczęli ingerować w to, że blokujemy postęp, czyli szukanie nowych, innowacyjnych technologii”. Gergelewicz ocenił, że takie rozwiązania w dłuższej perspektywie raczej okazałyby się szkodliwe, zatem w jego ocenie powinniśmy skupić się na szukaniu rozwiązań pozwalających blokować fałszywe treści.
Pamiętać o wolności
Pytana o to, czy wzorem dla świata Zachodu nie powinny być regulacje chińskie, Paulina Szkoła powiedziała, że fundamentalną różnicą pomiędzy Zachodem a Chinami jest fakt, że „w Chinach mamy do czynienia ze społeczeństwem kolektywnym, które dba o interes ogółu, a Europejczycy cenią sobie wolność, więc tutaj na gruncie mentalnym podążanie za chińską ścieżką byłoby niemożliwe”. Jak podkreśliła, w ChRL mamy do czynienia ze sztuczną inteligencją, która odpowiada celom politycznym.
Prof. Chałubińska-Jentkiewicz podkreśliła w tym kontekście, że jako państwa demokratyczne „możemy być skazani na niepowodzenie, bo Federacja Rosyjska czy Chińska Republika Ludowa nie przejmują się wolnościami człowieka. Nie przejmują się prawami podstawowymi, mimo tego, że prawa te mają zapisane w konstytucji”.
Jak dodała, jesteśmy obecnie w stanie wojny informacyjnej i dlatego powinna zostać dokonana rewizja oraz redefinicja tego, czym są nasze prawa, prawa człowieka w cyberprzestrzeni. „Myślę, że jednym z najważniejszych praw w przyszłości będzie prawo do ludzkiej ingerencji” - zaznaczyła, wchodząc w wątek algorytmów AI, podejmujących decyzje, np. w administracji.
Reagować na ryzyko
Płk Wojewoda pytany o ryzyko ataków na systemy wspomagające podejmowanie decyzji w administracji, powiedział iż obecnie ataki np. z wykorzystaniem techniki zatruwania danych szkoleniowych, są mało prawdopodobne. Nie oznacza to jednak, że Polska nie podejmuje działań, aby się przed tego rodzaju działaniami zabezpieczyć. Kluczowa jednak jest edukacja, która dotyczy nie tylko administracji, ale także użytkowników tych systemów - odpowiedzialność za cyberbezpieczeństwo dotyczy wszystkich.
Jednocześnie, płk Wojewoda nie ujawnił, ile obecnie w polskiej administracji działa systemów podejmujących decyzje w oparciu o AI - dodał jednak, że każdą decyzję podejmowaną przez algorytm zawsze rewiduje człowiek. W jego opinii, obowiązkiem obywateli korzystających ze sfery cyfrowej jest obecnie samodzielne poszukiwanie informacji i materiałów edukacyjnych, co wynika z samego faktu uczestniczenia w cyfrowej gospodarce.
Kto odpowiada za błędy?
Zdaniem prof. Chałubińskiej-Jentkiewicz, z przypisaniem odpowiedzialności za błędy popełniane przez systemy sztucznej inteligencji „będzie pewna trudność”. To właśnie w tym miejscu w jej opinii pojawiają się poważne dylematy etyczne, a w przyszłości będą także poważne dylematy prawne - szczególnie w kontekście broni. To właśnie jest także moment, w którym zdaniem prof. AszWoj należy mówić o regulacjach.
Płk Wojewoda stwierdził, że sztuczna inteligencja jest wsparciem dla działań wojska i służb, a gromadzenie danych na potrzeby analityki nie powinno przeszkadzać obywatelom, którzy chętnie oddają je na potrzeby monetyzacji przez wielkie korporacje. Przepisy o retencji danych regulujących kwestie ich przetwarzania i przechowywania są wystarczającą odpowiedzią na wątpliwości obywateli, dodatkowo - informacje wykorzystywane są przez służby w granicach obowiązującego prawa.
Paneliści zgodzili się, że trzeba podejmować wszelkie działania na rzecz wykorzystania sztucznej inteligencji na rzecz dobra oraz jej regulowania w taki sposób, aby nie hamować innowacyjności. Kluczowym elementem działań powinna być edukacja, która jednocześnie będzie nie tylko ostrzegała przed zagrożeniami, ale i wyjaśniała użytkownikom, jak działają technologie, z których korzystają.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].