
Sztuczna inteligencja bez kontroli? O zagrożeniach i etyce
Sztuczna inteligencja rozwija się w bardzo szybkim tempie, ale wraz z korzyściami, które daje, pojawiają się także wątpliwości związane z etyką. Jakie zagrożenia wiążą się z AI?
Kluczowym zagadnieniem, które pojawia się wraz z rozwojem AI jest ochrona danych osobowych. Profesor Jemielniak zwraca uwagę na ważny aspekt ochrony danych biometrycznych.
„Musi być zapewniona ochrona takich danych, jak nasz wygląd, czy też to, jak się poruszamy lub wysławiamy, bo inaczej będzie można łatwo się pod kogoś podszywać” - argumnetuje eskpert.
Jak tłumaczy: „Dane zbierane przez systemy AI, takie jak sposób pisania na klawiaturze, dają możliwość profilowania ludzi. Osoby piszące w specyficznym stylu lub tempie można profilować psychologicznie. Informacje te mogą też przyczynić się do poprawy zdolności udawania przez boty, że są ludźmi, bo koniec końców jedna z metod wykrywania botów to jest właśnie to, w jaki sposób posługują się klawiaturą czy też myszką i jakie ruchy są wykonywane”.
Czy należy wprowadzić czwarte prawo robotyki?
Prawa robotyki zostały sformułowane w latach 40. XX wieku przez Issaca Asimova i dotyczyły stosunków pomiędzy maszynami a ludźmi. Zgodnie z nimi, robot nie może zranić człowieka ani przez zaniechanie działania dopuścić do jego nieszczęścia, a także być posłuszny człowiekowi i dbać o siebie.
Profesor Jemielniak zauważa, że prawa te nie odnoszą się do funkcjonowania programów komputerowych działających w przestrzeni wirtualnej.
„Prawa robotyki, które powstały pół wieku temu, dotyczyły robotów w sensie fizycznym i były nakierowane na to, żeby robot nas nie uszkodził. Teraz mamy przede wszystkim problem z AI, z botami, z wirtualnymi awatarami. Ludzie przestaną odróżniać, czy dzwoni człowiek czy bot. Metoda na wnuczka będzie wyglądała tak, że dzwoni do nas ktoś, kto dzięki AI brzmi jak wnuczek” - wyjaśnia.
„Postuluję wprowadzenie czwartego prawa robotyki, które wymaga, aby każdy awatar, każdy bot w systemie sztucznej inteligencji identyfikował się, kiedy się z nami komunikuje. Żebyśmy zawsze wiedzieli, jak dzwoni do mnie bot, to ma się przedstawić, jestem botem, żebym wiedział” - argumentuje.
Rozmawiamy o AI
Jakie wyzwania etyczne wiążą się z rozwojem sztucznej inteligencji? Kto aktualnie odpowiada za funkcjonowanie agentów AI i czy regulacje są skuteczne? Czy istnieje ryzyko, że sztuczna inteligencja stanie się w pełni autonomiczna i stracimy nad nią kontrolę?
W nowym odcinku SK@NERA rozmawiamy z profesorem Dariuszem Jemielniakiem z Uniwersytetu Harvarda, Polskiej Akademii Nauk oraz Akademii Leona Koźmińskiego.
Cały materiał można obejrzeć klikając w okładkę artykułu lub na naszym kanale w serwisie YouTube.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Sztuczna inteligencja w Twoim banku. Gdzie ją spotkasz?
Materiał sponsorowany