Reklama

Technologie

List 25 ekspertów w sprawie AI. "Może doprowadzić do eksterminacji ludzkości"

Tuż przed startem drugiego AI Safety Summit w Seulu, 25 ekspertów opublikowało list w którym ostrzegają przed zagrożeniami ze strony sztucznej inteligencji. O co konkretnie chodzi?
Tuż przed startem drugiego AI Safety Summit w Seulu, 25 ekspertów opublikowało list w którym ostrzegają przed zagrożeniami ze strony sztucznej inteligencji. O co konkretnie chodzi?
Autor. Arseny Togulev/Unsplash

Z okazji globalnego szczytu bezpieczeństwa sztucznej inteligencji w Seulu, grupa 25 laureatów m.in. nagrody Turinga wystosowała wraz z ekspertami AI list otwarty do światowych przywódców. „Rozwój AI pod względem urzeczywistnienia nie będzie się różnił w stosunku do broni nuklearnej czy internetu” – wskazał jeden z autorów listu.

O zagrożeniach, jakie niesie ze sobą rozwój sztucznej inteligencji, coraz częściej mówi się na całym świecie. Jak opisywaliśmy na łamach CyberDefence24, podczas marcowego Summit for Democracy w Seulu, przed niebezpieczeństwem dla demokracji ze strony AI ostrzegał prezydent Korei Południowej Yoon Suk Yeol. Bronią w tym konflikcie są fake newsy oraz dezinformacja.

Czytaj też

Reklama

Eksperci alarmują: trzeba się zmierzyć z zagrożeniami AI

Dwa miesiące po wspomnianym szczycie, Seul gości kolejne spotkanie – tym razem jest to AI Safety Summit, który rozpoczął się we wtorek 21 maja. Jak podaje serwis Cybernews, kilka dni przed jego startem w czasopiśmie Science ukazał się list autorstwa 25 badaczy z całego świata. W tym gronie znaleźli się m.in. laureaci nagrody Turinga czy eksperci AI.

List ostrzega przywódców z całego świata przed zagrożeniem, jakie stanowi nieograniczony rozwój AI. Autorzy wzywają w nim do zmierzenia się z nimi – m.in. za pośrednictwem utworzenia odpowiednich podmiotów nadzorujących kwestie sztucznej inteligencji i przestrzeganie prawa przez podmioty.

Czytaj też

Reklama

Nie dla nieograniczonego rozwoju AI

Według autorów listu, konieczne jest wdrożenie systemu, który w razie zbyt szybkiego rozwoju AI zacznie zaostrzać wymagania dotyczące modeli. Z drugiej strony, w razie spowolnienia rozwoju, system powinien wymagania zmniejszać - w razie spadku tempa rozwoju poniżej oczekiwanego poziomu.

Jakie zagrożenia mogą czyhać na ludzkość? Okazuje się, że bez odpowiednich zabezpieczeń sztuczna inteligencja będzie mogła zacząć od zdobycia zaufania ludzi i wpływów wśród znanych osób, przez kopiowanie algorytmów między sobą, a na „otwartej wojnie z ludzkością” (niczym w Terminatorze) zakończy swoje działania.

Nieograniczony rozwój AI może doprowadzić do śmierci wielu ludzi, zniszczenia biosfery, a w ostateczności do marginalizacji albo eksterminacji ludzkości
List 25 ekspertów opublikowany w magazynie Science

Czytaj też

Reklama

AI pójdzie tą samą drogą co inne technologie?

Według słów dra Jana Braunera z Uniwersytetu Oksfordzkiego, pod względem tempa rozwoju AI, nie czeka nas inny los niż w przypadku lotów w kosmos czy internetu.

„Musimy się przygotować na zagrożenia, które brzmią jak science-fiction już teraz: AI manipulujące w polityce, włamujące się do krytycznych systemów czy sterujące robotami-żołnierzami” – wyjaśnił.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze

    Reklama