Reklama

Technologie

Obraz wygenerowany przy pomocy sztucznej inteligencji

Badacz sztucznej inteligencji: AI jest tak wszechobecna, że wręcz niezauważalna

„Jestem przekonany, że w dalekiej przyszłości, gdy użycie systemu sztucznej inteligencji będzie powodowało dla jego użytkownika negatywne konsekwencje, np. utratę zdrowia czy życia, to tak jak w innych dziedzinach inżynierskich – twórca algorytmu będzie za nie współodpowiedzialny” - mówi w rozmowie z CyberDefence24.pl dr hab., prof. AGH Szymon Łukasik, Kierownik Pionu Sztucznej Inteligencji w NASK.

Rozwój sztucznej inteligencji to - nikt nie ma już co do tego wątpliwości - wiele szans, ale także i zagrożenia. Technologia nie jest czarno-biała, skrywa w sobie wiele odcieni szarości, a to od nas zależy, jak pokierujemy jej dalszymi losami.

Świadomość możliwych błędów i niedociągnięć może nas natomiast uchronić przed wieloma rozczarowaniami w przyszłości. Takim zagadnieniem są algorytmy AI, które z jednej strony mogą stwarzać nowe problemy, a z drugiej - rozwiązywać inne.

Jakie i jak podejść do tego w odpowiedzialny sposób? O tym rozmawiamy z dr hab., prof. AGH Szymonem Łukasikiem, kierownikiem Pionu Sztucznej Inteligencji w NASK.

Czytaj też


Nikola Bochyńska, redaktor naczelna CyberDefence24.pl: Sztuczna inteligencja to obecnie „topowy” temat. Jakie plusy, a jakie minusy jej gwałtownego rozwoju pan widzi?

Dr hab., prof. AGH Szymon Łukasik, kierownik Pionu Sztucznej Inteligencji w NASK: Rozwój jest bez wątpienia niezwykle gwałtowny – niemal co tydzień obserwujemy pojawianie się nowych interesujących prac i algorytmów. Największy plus to bez wątpienia możliwość realizacji przez algorytmy zadań, które dotąd były trudne, wymagały wielu godzin ciężkiej pracy, często zaangażowania całych zespołów ludzi o różnych kwalifikacjach, a niejednokrotnie i dużej dozy artyzmu. To, że mówimy często o sztucznej inteligencji – zwłaszcza w kontekście obiektywnej wiedzy na jej temat – sprawia, że lepiej rozumiemy jej istotę, nie opierając się jedynie na domysłach czy wiedzy z filmów science-fiction.

Największym minusem jest z kolei z pewnością możliwość wykorzystania narzędzi AI do niekoniecznie szczytnych celów. Do przestrzeni publicznej przenikają już sztucznie wygenerowane treści oparte o techniki uczenia głębokiego (ang. deepfake) o dużym potencjale dezinformującym. Pewne dotychczas już występujące zjawiska jak phishing czy oszustwo metodą „na wnuczka” w świecie generatywnej sztucznej inteligencji przybiorą jedynie na sile i skuteczności.

Reklama

Jakie problemy już teraz mogą rozwiązać algorytmy AI?

Sztuczna inteligencja ma obecnie niebagatelny wpływ na praktycznie każdą dziedzinę naszego życia. Pozwala nam zostać wirtuozami klawiatury i na podstawie jednego zdania wytworzyć pełny kwiecistych sformułowań tekst i to do tego w obcym języku. Sprawia, że nie musimy sobie wyobrażać, jak van Gogh namalowałby Pałac Kultury i Nauki. Teraz bowiem po prostu możemy sobie taki obraz wytworzyć z użyciem narzędzia AI odpowiedniego do tego celu. Tworzy reklamy, jest w stanie dokonać transkrypcji tekstu mówionego, równocześnie pozwalając na wytworzenie dowolnej wypowiedzi wygenerowanej na podstawie próbki tekstu wypowiedzianego przez daną osobę.

To nie tylko ułatwienie, ale perspektywy innego, lepszego funkcjonowania, np. dla osób niepełnosprawnych. AI wspomaga też wykrywanie przestępstw w cyberprzestrzeni. Jest tak wszechobecna, że wręcz niezauważalna. W zeszłorocznym raporcie Pew Research Center wykazano, że jedynie połowa badanych Amerykanów była świadoma, że sztuczna inteligencja jest używana np. w rekomendacji muzyki, wykrywaniu spamu czy identyfikacji osób w obrazie z kamery przemysłowej.

Jakie problemy może pogłębić?

Już wspominałem o wzroście zagrożenia związanym z dezinformacją czy generowaniem treści o charakterze abuzywnym. Sama łatwość korzystania z narzędzi syntezy tekstu czy obrazu może nas doprowadzić do zalewu treściami pięknymi w formie jak lukrowany tort, jednak wyjątkowo „niesmacznymi” w swej treści.

Jest to szczególnie istotne w edukacji. Już teraz nauczyciele obserwują lawinowy wzrost prac wytworzonych przez duże modele językowe, czyli popularne LLMy (ang. Large Language Models). Są to często teksty napisane poprawnym językiem, w których pojawiają się liczne błędy merytoryczne. Dla niektórych zaskakujący może być też fakt, że modele obecnej generacji popełniają katastrofalne pomyłki w rozwiązywaniu zadań matematycznych.

Podsumowując: bezkrytyczne korzystanie z narzędzi AI może powodować problemy z odróżnianiem prawdy od fałszu, generalizacji czy szkodliwych uprzedzeń.

Czytaj też

Reklama

Dyskryminacja algorytmami

Temat dyskryminacji przez algorytmy nie jest nowy. Czy AI może przyczyniać się do wzrostu tego problemu, czy raczej go zniweluje?

W tym momencie możemy raczej częściej wskazywać przykłady, w których sztuczna inteligencja wzmacnia istniejące stereotypy. Jak zauważył Bloomberg w raporcie „Humans Are Biased, Generative AI Is Even Worse”, według Stable Diffusion – najpopularniejszego algorytmu do generacji obrazów – światem rządzą biali mężczyźni, kobiety rzadko są lekarzami, prawnikami czy sędziami, z kolei mężczyźni o ciemnej karnacji popełniają przestępstwa, a kobiety smażą hamburgery.

To, że technologia odzwierciedla czy przekonania twórcy, czy jak w tym przypadku, jej funkcjonowanie wynika z użytych danych nie powinno być dla nikogo zaskoczeniem. W dobie masowego użycia algorytmów AI, które siłą rzeczy kształtują naszą rzeczywistość i światopogląd, problem ten ma jednak bardzo istotne znaczenie.

Jak może pana zdaniem wyglądać odpowiedzialność twórców chatbotów i systemów opartych o AI, kiedy udzielą dyskryminującej odpowiedzi? Czy wystarczy uzasadnienie już teraz wielokrotnie prezentowane przez chatboty, czyli automatyczna odpowiedź „przepraszam, mogę się mylić, jestem tylko modelem sztucznej inteligencji”?

Obecnie przechodzimy od fazy radosnego rozwoju dyscypliny AI do czasu, w którym coraz częściej myślimy o tzw. odpowiedzialnej sztucznej inteligencji (ang. responsible AI). Takiej, która jest przejrzysta, bezpieczna i niezawodna.

Jestem przekonany, że w dalekiej przyszłości, gdy użycie systemu sztucznej inteligencji będzie powodowało dla jego użytkownika negatywne konsekwencje (np. utratę zdrowia czy życia) to tak jak w innych dziedzinach inżynierskich – twórca algorytmu będzie za nie współodpowiedzialny, także na gruncie ustanowionego prawa. Ta odpowiedzialność będzie oznaczać większe wymagania w zakresie testów, zabezpieczenia modeli zarówno przed nieprawidłowym użyciem, ale i przed atakami hakerskimi. Związane z tą tematyką prace badawcze są już prowadzone, m.in. w NASK-PIB.

Reklama

Jakość danych a rozwój chatbotów

Chatboty i odpowiedzi, jakich udzielają zależą od jakości danych, na których były trenowane. Pojawiają się predykcje, że do 2026 roku „wyczerpie się” wysokojakościowa treść w internecie. Do czego pana zdaniem może to nas doprowadzić?

Jestem sceptycznie nastawiony co do tego rodzaju prognoz. Wiele zbiorów danych dopiero czeka na „odkrycie” i nie jest jeszcze nawet dostępna w formie cyfrowej. Piękno dziedziny, którą się zajmuję polega też na tym, że dla tych samych danych można zbudować nieskończenie wiele modeli.

Od wielu lat początkujący adepci data science często zaczynają swoją przygodę z tą dziedziną, rozwiązując problem przewidywania, kto przeżył katastrofę Titanica na podstawie podstawowych danych pasażerów tego słynnego liniowca.

Jeden model będzie skuteczniejszy, ale na przykład będzie wymagać więcej zasobów obliczeniowych, drugi – kosztem popełnianego błędu będzie bardziej oszczędny czy elastyczny na zmiany otoczenia. W przypadku dużych modeli językowych główne wyzwania to ograniczenie halucynacji (sytuacji, w których model „zmyśla informacje”), możliwość formułowania długich, wielomodalnych (zawierających poza tekstem także obraz czy dźwięk) zapytań czy też po prostu – optymalizacja zużycia pamięci czy procesorów.

Jakie główne wyzwania stoją przed nami - użytkownikami - w związku z tak szybkim rozwojem AI?

Wielkim wyzwaniem nawet dla nas, osób zajmujących się tym obszarem zawodowo, jest nadążenie za rozwojem technologii opartych o AI. Bardzo ważny staje się wybór narzędzia, świadomość jego mocnych i słabych stron. Niemniej istotne jest jednak traktowanie algorytmu jako (tylko i aż) algorytmu i odpowiednie dostosowanie swoich oczekiwań.

Dziękuję za rozmowę.

Regulacja sztucznej inteligencji

Czy prawo jest w stanie nadążyć za dynamicznym rozwojem sztucznej inteligencji? O to pytaliśmy dr Marię Dymitruk, radczynię prawną, counsel w firmie doradczej Olesiński i Wspólnicy.

„Tworzenie prawa zajmuje dużo czasu. Nadążanie przez prawodawcę za tym, co się dzieje na rynku technologicznym, jest sporym wyzwaniem. Nie wiem, czy w ogóle da się wygrać ten wyścig. Chyba nie” - mówiła w wywiadzie dla CyberDefence24.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama