Reklama

Strona główna

Fot. Geralt/Pixabay

Raport o zagrożeniach sztucznej inteligencji zapowiada trudną przyszłość

Nowy raport o zagrożeniach niesionych przez sztuczną inteligencję (AI) zapowiada trudną przyszłość; zdaniem ekspertów rozwój tej technologii może stworzyć nowe pole do działania dla cyberprzestępców, ingerencji w demokrację, a nawet ataków fizycznych.

Ponad stustronicowy raport napisany przez 26 ekspertów z 14 różnych organizacji, takich jak m. in. Uniwersytety w Oksfordzie i Cambridge, fundacja Electronic Frontier Foundation oraz organizacja OpenAI zawiera analizę wniosków wypracowanych podczas dwudniowych warsztatów na temat sztucznej inteligencji, które odbyły się w lutym ubiegłego roku na Uniwersytecie Oksfordzkim. Dokument koncentruje się na trzech sferach bezpieczeństwa: fizycznym, cyfrowym oraz politycznym, przedstawiając drogi, jak złe wykorzystanie sztucznej inteligencji może wpłynąć na każdą z nich.

"Często zdarza się, że systemy sztucznej inteligencji nie tyle dorównują wynikom osiąganym przez ludzi w różnych dziedzinach, ale znacznie je przewyższają" - stwierdził jeden z badaczy pracujących przy raporcie, związany z Uniwersytetem w Oksfordzie Miles Brundage. "Potrzebnym, choć martwiącym procesem jest analiza wykorzystania tych systemów w dziedzinach takich, jak nadzór, identyfikacja fizycznych celów i aktywność w cyberprzestrzeni" - dodał.

Jednym z głównych wniosków płynących z raportu jest ostrzeżenie o sile negatywnego oddziaływania sztucznej inteligencji, o ile zostanie ona wykorzystana przez rywalizujące ze sobą państwa, terrorystów oraz innych przestępców dla realizacji własnych celów. W większości przypadków, AI pozwala na przeprowadzenie bardzo dokładnie zaplanowanych ataków zarówno w sferze cybernetycznej, jak i fizycznej.

"W miarę, jak możliwości sztucznej inteligencji stają się coraz większe, a jej zastosowanie - coraz bardziej powszechne, spodziewamy się ewolucji zagrożeń związanych z jej wykorzystaniem. Zmiany obejmują również zagrożenia, z którymi mieliśmy do czynienia już wcześniej - pod wpływem technologii AI zmienia się ich struktura" - twierdzą autorzy raportu.

Naukowcy ostrzegają, że koszty tego rodzaju ataków będą coraz mniejsze ze względu na skalowalność rozwiązań technicznych, na jakie pozwala technologia sztucznej inteligencji.

Autorzy raportu ostrzegają przede wszystkim przed atakami w cyberprzestrzeni. W grę może wchodzić zautomatyzowana aktywność hakerów zdalnie wykonujących ataki, czy też wykorzystujących syntezę głosu i mowy w celu podszywania się pod określone osoby. Zagrożenie mają stanowić także częściowo i całkowicie zautomatyzowane drony, mogące posłużyć jako broń w skoordynowanych atakach na infrastrukturę krytyczną.

W sferze polityki, sztuczna inteligencja może posłużyć do wywierania wpływu na wyniki wyborów poprzez manipulację opinią publiczną, kolportowanie cyfrowej propagandy i fałszywych informacji. Algorytmy mają również pozwalać na budowę lepszego i dokładniejszego niż kiedykolwiek wcześniej systemu nadzoru, zarówno w przestrzeni publicznej, jak i prywatnej.

"Istotne problemy niesie ze sobą zwiększona możliwość analizy ludzkiego zachowania, naszych nastrojów, wierzeń i przekonań na podstawie danych, które pozostawiamy po sobie w internecie. To najbardziej martwiące w kontekście państw o ustroju autorytarnym, ale obawy dotyczą również państw demokratycznych, w których sztuczna inteligencja może znacznie utrudnić prowadzenie prawdziwej debaty publicznej" - twierdzą autorzy.

Zdaniem założyciela firmy High-Tech Bridge, Ilji Kołoczienki, obawy autorów raportu są znacznie przesadzone. Jak twierdzi, w ciągu następnych dziesięciu lat niewiele się zmieni.

Musimy przede wszystkim rozróżnić prawdziwą sztuczną inteligencję, która może zastąpić ludzki mózg, od tego, co nazywamy sztuczną inteligencją w potocznym znaczeniu, a co nie ma z nią wiele wspólnego

Ilji Kołoczienki - założyciel firmy High-Tech Bridge

Kołoczienko zaznaczył również, że cyberprzestępcy już teraz korzystają z algorytmów uczenia maszynowego do zwiększania skuteczności swoich działań, co jest skuteczne przede wszystkim ze względu na brak wyszkolonych w cyberbezpieczeństwie specjalistów pracujących w firmach, które hakerzy biorą na swój celownik.

Reklama

Komentarze

    Reklama