Technologie
List 25 ekspertów w sprawie AI. "Może doprowadzić do eksterminacji ludzkości"
Z okazji globalnego szczytu bezpieczeństwa sztucznej inteligencji w Seulu, grupa 25 laureatów m.in. nagrody Turinga wystosowała wraz z ekspertami AI list otwarty do światowych przywódców. „Rozwój AI pod względem urzeczywistnienia nie będzie się różnił w stosunku do broni nuklearnej czy internetu” – wskazał jeden z autorów listu.
O zagrożeniach, jakie niesie ze sobą rozwój sztucznej inteligencji, coraz częściej mówi się na całym świecie. Jak opisywaliśmy na łamach CyberDefence24, podczas marcowego Summit for Democracy w Seulu, przed niebezpieczeństwem dla demokracji ze strony AI ostrzegał prezydent Korei Południowej Yoon Suk Yeol. Bronią w tym konflikcie są fake newsy oraz dezinformacja.
Czytaj też
Eksperci alarmują: trzeba się zmierzyć z zagrożeniami AI
Dwa miesiące po wspomnianym szczycie, Seul gości kolejne spotkanie – tym razem jest to AI Safety Summit, który rozpoczął się we wtorek 21 maja. Jak podaje serwis Cybernews, kilka dni przed jego startem w czasopiśmie Science ukazał się list autorstwa 25 badaczy z całego świata. W tym gronie znaleźli się m.in. laureaci nagrody Turinga czy eksperci AI.
List ostrzega przywódców z całego świata przed zagrożeniem, jakie stanowi nieograniczony rozwój AI. Autorzy wzywają w nim do zmierzenia się z nimi – m.in. za pośrednictwem utworzenia odpowiednich podmiotów nadzorujących kwestie sztucznej inteligencji i przestrzeganie prawa przez podmioty.
Czytaj też
Nie dla nieograniczonego rozwoju AI
Według autorów listu, konieczne jest wdrożenie systemu, który w razie zbyt szybkiego rozwoju AI zacznie zaostrzać wymagania dotyczące modeli. Z drugiej strony, w razie spowolnienia rozwoju, system powinien wymagania zmniejszać - w razie spadku tempa rozwoju poniżej oczekiwanego poziomu.
Jakie zagrożenia mogą czyhać na ludzkość? Okazuje się, że bez odpowiednich zabezpieczeń sztuczna inteligencja będzie mogła zacząć od zdobycia zaufania ludzi i wpływów wśród znanych osób, przez kopiowanie algorytmów między sobą, a na „otwartej wojnie z ludzkością” (niczym w Terminatorze) zakończy swoje działania.
Nieograniczony rozwój AI może doprowadzić do śmierci wielu ludzi, zniszczenia biosfery, a w ostateczności do marginalizacji albo eksterminacji ludzkości
List 25 ekspertów opublikowany w magazynie Science
Czytaj też
AI pójdzie tą samą drogą co inne technologie?
Według słów dra Jana Braunera z Uniwersytetu Oksfordzkiego, pod względem tempa rozwoju AI, nie czeka nas inny los niż w przypadku lotów w kosmos czy internetu.
„Musimy się przygotować na zagrożenia, które brzmią jak science-fiction już teraz: AI manipulujące w polityce, włamujące się do krytycznych systemów czy sterujące robotami-żołnierzami” – wyjaśnił.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].