Reklama

Polityka i prawo

Po co nam sztuczna inteligencja? Rożek: „Otwiera drzwi do nowego rozdziału” [WYWIAD]

Fot. Tomasz Rożek/ archiwum prywatne
Fot. Tomasz Rożek/ archiwum prywatne

„Już dzisiaj algorytmy są dużo lepsze niż wybitni specjaliści w wyszukiwaniu chociażby ognisk nowotworowych” – podkreślił w wywiadzie z CyberDefence24.pl dr Tomasz Rożek, polski fizyk, dziennikarz naukowy i autor książek. Jego zdaniem ludzie posiadają jednak to, czego maszynie nie udało się do tej pory wykształcić: kreatywność i intuicję. Kiedy dojdziemy do momentu, w którym sztuczna inteligencja faktycznie stanie się niezależna od człowieka?

Błyskawiczny postęp technologiczny prowadzi nas w nowe zakamarki rzeczywistości. Dzięki nowoczesnym rozwiązaniom staramy się przekraczać kolejne granice, które do tej pory były dla człowieka nieosiągalne. Wystarczy spojrzeć na to, co dzieje się obecnie w medycynie, elektronice czy w wyścigu o podbój kosmosu. A to jedynie skromny wycinek tego, jak technologia odmieniła naszą wizję świata.

Za jedną z kluczowych uznaje się sztuczną inteligencję (AI). Na wielu polach ma wyręczyć człowieka, zapewniając „perfekcję” w każdym calu, jak na algorytm przystało. To jednak budzi obawy o rolę człowieka w pełni zautomatyzowanym świecie, w którym samodzielne maszyny będą funkcjonowały obok nas.

Tu pojawia się pytanie: czy jako ludzie, będziemy w stanie w pełni zaufać sztucznej inteligencji w kwestiach dla nas szczególnie ważnych, jak np. zdrowie i życie? Kiedy dojdziemy do momentu, w którym algorytmy faktycznie staną się niezależne od człowieka? A może ludzie zawsze będą górowali nad technologią?  

O tym wszystkim, a także innych problemach, wyzwaniach, możliwościach związanych ze sztuczną inteligencją i nowoczesną technologią, porozmawialiśmy z założycielem fundacji „Nauka. To lubię” dr Tomaszem Rożkiem.

Szymon Palczewski, CyberDefence24.pl: Jednym z najpopularniejszych tematów technologicznych jest sztuczna inteligencja (AI). Niektórzy oceniają, że to „słowo-wytrych”. A jak pan podchodzi do AI?

Dr Tomasz Rożek, fizyk i założyciel fundacji „Nauka. To Lubię”: Nie należy postrzegać jej jako jedną technologię, lecz cały ich zbiór. Moim zdaniem to nowy, inny sposób patrzenia na dane.

Dla przykładu odniosę się do konkretnej dziedziny. Czy nową technologią jest nanotechnologia? Moim zdaniem nie. Ona jest wejściem w zupełnie inny świat. Ale świat na wielu poziomach, w medycynie, elektronice czy dziedzinie nowych materiałów.  Inaczej wygląda dyskusja o nanotechnologii – i szerzej całym świecie „nano” – wtedy, gdy rozmawia się chociażby z inżynierami biomedycznymi, próbującymi ją wprowadzić w medycynie, a zupełnie inaczej z tymi, którzy zajmują się np. elektroniką.

Sugeruje pan, że ze sztuczną inteligencją jest podobnie?

Według mnie ze sztuczną inteligencją jest dokładnie tak samo. AI to otwarcie nowych drzwi, lecz na pewno nie można postrzegać jej jako jedną technologię. Zupełnie inaczej o niej można rozmawiać w kontekście medycyny, a zupełnie inaczej w odniesieniu do innych obszarów.

Patrząc jednak na całą złożoność i skomplikowanie sztucznej inteligencji, czy możemy wskazać na jakieś elementy wspólne, charakteryzujące technologie oparte na AI?

Występuje jedna wspólna oś, która je wszystkie spina. Sztuczna inteligencja – co do zasady i definicji – to rozwiązanie analizujące ogromne zbiory danych. Mogą nimi być np. obrazy tomograficzne mózgu, na bazie których algorytm wyszukuje nieregularności świadczące o początkach choroby nowotworowej. Ale może być także analiza danych meteorologicznych albo społecznych.

W każdym przypadku na pierwszym miejscu znajdują się ogromne zbiory danych oraz zdolność do wyszukiwania na ich podstawie nieoczywistych zależności.

Współcześnie jednak posiadamy urządzenia, jak np. komputery, które również są w stanie analizować duże zbiory informacji. To po co właściwie nam jest potrzebna sztuczna inteligencja?

Oczywiście, zwykły komputer też potrafi sobie radzić z dużymi zbiorami danych, tyle tylko, że on do tego „radzenia sobie” potrzebuje zaangażowania człowieka. Najpierw ktoś musi napisać właściwy program, który wyznaczy urządzeniu drogę, jak powinno działać, np. w jaki sposób posortować informacje.

W momencie, gdy zależy nam na bardziej zaawansowanych operacjach, zwykły komputer okazuje się niewystarczający. Mówię tu o chęci, aby urządzenie samo np. pozyskiwało informacje, tworzyło wzory, znajdowało połączenia i zależności. W takich przypadkach przydatny jest algorytm, któremu jedynie z „grubsza” określa się ramy działania. Resztę wykonuje samodzielnie.

Obecnie niemalże wszystkie „smart urządzenia” reklamuje się jako posiadające sztuczną inteligencję – odkurzacze, lodówki, zegarki, kuchenki itd. Czy nie wpadamy w niezdrową fascynację tą technologią?

Moim zdaniem to chwyt marketingowy. Przykładowo, bez problemu w sklepie z odzieżą sportową można znaleźć t-shirt, który wykonano z „inteligentnego” materiału. Dzięki niemu koszulka w określonych momentach np. przepuszcza wilgoć lub zatrzymuje.

Widzimy więc, że dochodzi tutaj do licznych nadinterpretacji, czym jest AI, a to wynika z problemu z jednoznacznym jej zdefiniowaniem. Z tego względu nazywanie czegoś „sztuczną inteligencją”, często mija się z prawdą.

W takim razie skąd wynika trudność w zdefiniowaniu sztucznej inteligencji?

Być może wynika to z faktu, że w ogóle nie istnieje jednoznaczne określenie „inteligencji” tej naturalnej. Obecnie robi się to na wiele różnych sposób. Generalnie każdy z nas intuicyjnie wie i rozumie, czym ona jest. Nie potrafimy jednak użyć konkretnej definicji. To daje duże pole do nadinterpretacji.

Czy to nie jest tak, że producenci i marketingowcy, oferując „urządzenia ze sztuczną inteligencją”, tak naprawdę bazują na społecznej niewiedzy czym właściwie jest AI?

Bazują na wyobrażeniach i na założeniu, że to, co jest inteligentne, równocześnie jest postrzegane jako nowoczesne, innowacyjne. Lubimy mieć przecież rzeczy na czasie, nawet jeżeli wcale nie są one jakoś bardziej zaawansowane od poprzednich – czasami w grę wchodzi delikatny lifting. Dla nas to bez znaczenia i chętnie pozbywamy się „staroci”, nawet gdy nadal normalnie działają.

Dla firm to czysty biznes. Nie powinniśmy się nastawiać na zmianę ich strategii?

Producenci i marketingowcy nie zmienią swojego podejścia, pomimo hucznych deklaracji. Nadal będą ładnie „opakowywać” (pod kątem marketingowym – przyp. red.) swoje urządzenia, ponieważ żyją z tego, że je kupujemy. A kupujemy dlatego, że oddziałują na nasze zmysły. Nabywamy oczami, nie mózgiem.

W filozofii nurtującym jest pytanie: „ile musi być człowieka w człowieku, żeby był człowiekiem?”. Analogicznie chciałbym zapytać: ile musi być sztucznej inteligencji w sztucznej inteligencji, żeby była sztuczną inteligencją?

Trudno odpowiedzieć na to pytanie, ponieważ nie występuje jednoznaczna definicja AI. Jest grupa ekspertów, która twierdzi, że obecnie mamy już do czynienia ze sztuczną inteligencją. Z drugiej jednak strony pojawiają się głosy, że tak naprawdę to będziemy ją dopiero mieli za jakiś czas, ponieważ rozwiązania, którymi współcześnie dysponujemy stanowią jedynie namiastkę całości. Skoro nie ma definicji AI, to trudno powiedzieć, kto w tym sporze ma rację.  

Nie mam jednak wątpliwości, że z czasem algorytmy staną się coraz bardziej zaawansowane – będą np. jeszcze szybciej się uczyły. Tutaj jednak ponownie wchodzimy na nieostre pole. Czy tak naprawdę sztuczna inteligencja rzeczywiście gromadzi wiedzę? Jeśli tak, to czy ma tego świadomość? I czym w ogóle jest dla nas „świadomość”?

„Człowiek jest istotną doskonałą”. Tego typu stwierdzenia można spotkać, zagłębiając się w prowadzone badania np. nad mózgiem. Również w teologii pojawiają się tezy o wyjątkowości ludzi, ponieważ powstaliśmy „na wzór i podobieństwo Boga”. Z perspektywy naukowca i fizyka – czy pana zdaniem sztuczna inteligencja może być kiedyś doskonalsza od człowieka?

Nie wiem, jak definiować doskonałość. Nasze ciała z całą pewnością doskonałe nie są. W końcu chorujemy, a nasz układ kostny posiada pewne ograniczenia. Mamy mnóstwo technologii, które są od nas w czymś lepsze, po to je tworzymy. Zwykły dźwig podnosi przecież większe ciężary niż my.

Z AI jest tak samo, tworzymy ją po to, by była od nas lepsza, bo tylko wtedy będzie dla nas wsparciem. Jest wiele technologii, także cyfrowych, które  prześcigają człowieka. Oczywiście, pozostaje kwestia ustawienia priorytetów.

Co ma pan na myśli?

Można sobie wyobrazić kogoś, kto nauczy sztuczną inteligencję, że dla dobra klimatu – i szerzej środowiska – lepiej byłoby, gdyby na świecie żyło mniej ludzi. Wniosek dla algorytmu jest prosty: w takim razie należy pozbyć się części populacji. To bardzo naiwne podejście, wynikające z braku zrozumienia złożoności całej historii. Przecież człowiek jest jednym z elementów przyrody i pozbywanie się któregokolwiek z „puzzli”, tworzących obraz świata ożywionego, jest kardynalnym błędem.

Co ciekawe, równocześnie te same głosy wyrywają sobie włosy z głowy, gdy słyszą o tym, jak wiele gatunków roślin czy zwierząt – w wyniku rozwoju technologicznego czy rozwoju cywilizacyjnego – znika z tej planety.

Obserwując współczesny świat, widzimy, że technologie lepsze od człowieka otaczają nas zewsząd. Jednak mimo wszystko nadal najważniejszy jest ludzki element.

Mówimy o technologiach, które są nie tylko w czymś od nas lepsze, ale również rekomendują podjęcie określonej decyzji. Jak dotąd, pod wszystkim i tak musi podpisać się człowiek.

Ma pan na myśli jakąś konkretną dziedzinę?

Wystarczy spojrzeć chociażby na algorytmy w medycynie. Są urządzenia, które świetnie radzą sobie z rozpoznawaniem obrazów albo nawet z interpretowaniem zachowań. Jednak obecnie nikt nie odważy się pójść do „algorytmu lekarza”, tylko do lekarza mającego wsparcie algorytmu. Tak samo jest w przypadku robotów chirurgicznych. Świetnie sobie radzą z niektórymi zabiegami, ale za każdym razem działania autoryzuje człowiek, który jest gdzieś w pobliżu.

Kiedy nadejdzie czas, gdzie algorytm będzie mógł bez autoryzacji podejmować decyzję?

W pewnym sensie w niektórych obszarach już tak jest. Przykładem może być giełda albo ruch lotniczy. Samolot przez gros lotu jest sterowany głównie przez algorytmy. Człowiek oczywiście zasiada za jego sterami w kokpicie, lecz – według niektórych badaczy – raczej ze względów psychologicznych. Prawdopodobnie nikt nie wsiadłby do samolotu bez pilota. Mimo tego, że to człowiek jest najsłabszym elementem w ciągu decyzyjnym. W wielu sytuacjach, w szczególności nagłych, awaryjnych, dynamicznych, decyzje i konkretne działania podejmuje algorytm, pomimo że w praktyce człowiek jest na miejscu. 

Podobna sytuacja występuje w przypadku technologii militarnych, gdzie mamy do czynienia z nowoczesną bronią, jak np. autonomiczne drony.

Tak, coraz częściej się o tym słyszy w kontekście dronów, robotów kroczących itd. Już teraz wiele aktywności bierze na siebie algorytm, jednak gdy należy uruchomić konkretny pocisk czy użyć broni, to ostateczną decyzję chyba wciąż podejmuje człowiek.

Kiedy w takim razie oddamy pełną kontrolę i decyzyjność maszynie?

Moim zdaniem z pewnością się to wydarzy, jednak nie umiem podać konkretnego czasu. Może być tak, że w którymś momencie dojdzie do wypadku, gdzie ewidentnie zawinił człowiek. A wtedy bez trudu mogę wyobrazić sobie sytuację, w której usłyszymy: „Widzicie, to jednak algorytmy są lepsze”.

Skupmy się na sytuacji, w której człowiek zostanie wyłączony z podejmowania decyzji i wszystko będzie zależało od sztucznej inteligencji. Z jednej strony mamy obóz, który twierdzi, że za błędy maszyny odpowiada producent, a z drugiej jest grono ekspertów, wskazujących, że odpowiedzialność spoczywa na właścicielu. Do której grupy pan by się przypisał?

Bardzo trudno jednoznacznie rozwiązać ten problem. Znajduję argumenty za tym, żeby producent wziął odpowiedzialność, ponieważ jeśli mamy do czynienia z autonomicznym urządzeniem, to dlaczego niby miałby ponosić konsekwencje człowiek, który z niego korzysta? Mam na myśli chociażby samochody autonomiczne.

Z drugiej strony musimy pamiętać, że to nie jest tak, że istnieje jeden producent konkretnej technologii. Wynika to z faktu, że gdzie indziej powstaje oprogramowanie, w innym miejscu produkowane są podzespoły, a jeszcze w innym regionie wszystko jest spinane w całość. To właśnie rodzi pytanie: kto tak naprawdę jest odpowiedzialny?

Z pana słów wynika, że głównym hamulcowym do wdrożenia na szerszą skalę autonomicznych rozwiązań jest kwestia nie tyle ograniczeń technologicznych, a przypisania odpowiedzialności.

Według części ekspertów, m.in. od prawa, to właśnie kwestie przepisów są głównym hamulcowym, co dotyka np. branżę samochodów autonomicznych. Z punktu widzenia technologicznego w wielu miejscach spokojnie moglibyśmy już je posiadać i używać. Natomiast ze względów regulacyjnych tak się nie stało.

Skąd wynika ten problem?

W naszej doktrynie prawnej, jeżeli komuś dzieje się krzywda, to ma on prawo do odszkodowania. Odszkodowanie dostaje od sprawcy, który mógł się ubezpieczyć. W sytuacji, w której nagle nie ma winnego, zaczyna się kłopot.

Poniesiona szkoda może wynikać z wielu różnych rzeczy, np. tego, że algorytm się pomylił – nie tyle na poziomie analizy, ale dlatego, że był źle „wyszkolony”. A pamiętajmy, że kto inny szkoli, a kto inny go pisze.

Straty mogą powstać także dlatego, że np. na środku ulicy nagle pojawił się jakiś obiekt i algorytm go dobrze zinterpretował jako przeszkodę i ominął, uderzając jednak w coś podczas manewru.

W końcu może też odpaść koło od samochodu i ani informatyk, ani trener sztucznej inteligencji nie jest winien temu, że po prostu materiał był słabszy, albo ktoś w warsztacie źle dokręcił śruby. Widzimy więc, że jest tutaj mnóstwo wątków i cały czas trwa dyskusja, jak to wszystko poukładać. 

Wspomniał pan wcześniej o tym, że już obecnie wiele urządzeń nie wymaga zaangażowania człowieka, lecz element ludzki cały czas występuje, aby wzbudzać pewność, że ktoś nieustannie czuwa nad tą technologią, np. autopilot w samolocie. Tu pojawia się pytanie: czy kiedyś w stu procentach zaufamy urządzeniom, które będą w pełni samodzielne?  Inaczej mówiąc, gdyby miał pan wybór – wolałby pan poddać się operacji z udziałem wybitnego chirurga czy w pełni autonomicznego robota ze sztuczną inteligencją?

Już dzisiaj algorytmy są dużo lepsze niż wybitni specjaliści w wyszukiwaniu chociażby ognisk nowotworowych na zdjęciach. Algorytm znajduje je po prostu szybciej, zanim nowotwór zrobi się na tyle duży, że będzie dostrzegalny dla oka i mózgu człowieka. Sztuczna inteligencja taką nieregularność dużo wcześniej wyłapie. Pod tym względem moja odpowiedź brzmi: chciałbym, żeby mój lekarz miał do dyspozycji takie wsparcie.

Człowiek ma jednak bardzo ważny oręż w ręku: intuicję.

Z tego co wiem, żadna maszyna nie przekroczyła bardzo ważnej bariery, jaką jest właśnie intuicja, która nie wynika wprost z doświadczenia.

Sami doskonale wiemy, że czasami jest tak, że nieszablonowe kroki są skuteczniejsze niż te standardowe. Maszyna nie potrafi jednak uwolnić się z określonego schematu. Nie wiem, czy to kwestia wyczucia, czy nadprzyrodzonych umiejętności człowieka, a może jeszcze czegoś innego. Bardzo trudno zdefiniować to zjawisko, lecz z pewnością ono występuje. Gdy wszystkie dane mówią „należy zrobić tak”, ludzka intuicja wskazuje, że „lepiej jednak pójść w tę stronę”. U maszyn czegoś takiego nie ma.

Mówimy, że człowiek jest kreatywny, czyli posługuje się nie w sposób „zero-jedynkowy” tym co widzi, tylko dokłada do tego pewną wartość dodaną – coś takiego, co trudno opisać, co trudno zrozumieć, na co nawet najlepiej wyszkolona maszyna by nie wpadła. Tylko czy da się łatwo zmierzyć, która strategia jest skuteczniejsza? Choć nieszablonowe postępowanie jest w wielu miejscach atutem, to jednak w innych właśnie procedury i trzymanie się planu gwarantuje sukces i bezpieczeństwo.  

Człowiek posiada intuicję, świadomość, wrodzoną inteligencję, zmysły itd. To wszystko sprawia, że jesteśmy w pewnym sensie „wyjątkowi”. W tym kontekście technologia może nam tylko pomóc, ale nas nie zastąpi?

Być może tak jest. Są ludzie, którzy twierdzą jednak, że „szósty zmysł”, o którym czasami się mówi, to nic innego, jak tylko odpowiednio duży dobór danych i doświadczenia. Ich zadaniem lekarz, kierowca lub ktokolwiek inny owszem posiada go, lecz nie powstał on z niczego.

Pojawiają się głosy, że nie dysponujemy „szóstym zmysłem” od urodzenia, ale nabieramy go z czasem – doświadczeniem, wiedzą, wyczuciem. W tym sensie pojawia się na bazie analizy bardzo dużych zbiorów danych. Czy w tym wszystkim jest element wyjątkowości? Trudno mi powiedzieć.

Wiele mówi się o tym, że sztuczna inteligencja jest technologią przełomową dla medycyny, przemysłu, sektora cyfrowego itd. A jak AI, zmienia dziedzinę, w której się pan specjalizuje – fizykę?

Na pewno jest pomocna wszędzie tam, gdzie mamy do czynienia z dużymi zbiorami danych. Przy przeprowadzaniu eksperymentów, szczególnie w dziedzinie fizyki cząstek czy jądrowej, występuje bardzo szeroki zasób informacji i umiejętność wyszukania w nich czegoś wartościowego jest podstawą działania. W momencie, w którym badacz ma wsparcie algorytmu, po prostu jest mu łatwiej.

Z tego wynika, że sztuczna inteligencja to dla was przede wszystkim narzędzie wsparcia przy pracy z danymi.

Mówiliśmy wcześniej o klimacie. Liczba danych klimatycznych, jakie spływają każdego dnia, godziny, minuty z różnych czujników, np. w samolotach, satelitów, z balonów, ze stacji naziemnych, nawodnych, podwodnych – jest po prostu niesamowita. Próba ich analizy za pomocą tradycyjnych metod, przy użyciu klasycznych komputerów, jest wyzwaniem, bo wiąże się ze sporymi ograniczeniami. Problem narasta, ponieważ danych jest coraz więcej.

Podsumowując naszą rozmowę, czy według pana to właśnie sztuczną inteligencję należy uznać za najbardziej przełomową technologię? Czy widziałby pan inną, na którą powinniśmy postawić?

Zgodnie z tym, o czym mówiliśmy na samym początku, nie traktuję sztucznej inteligencji jak jednej technologii, to – jak wspomniałem – otwarcie drzwi do nowych możliwości na wielu różnych polach. Za każdym razem, gdy pojawia się moment, w którym „otwieramy drzwi gdzieś dalej”, myślimy sobie, że jest to najbardziej przełomowe osiągnięcie. Jednak z czasem okazuje się, że potrafimy pójść jeszcze dalej. W odniesieniu do AI, nie sądzę, żeby to był ostatni pokój w tym domu. Moim zdaniem takowych jest więcej.

W takim razie jak należy traktować sztuczną inteligencję?

Osobiście sztuczną inteligencję traktuję jako narzędzie do pogłębiania wiedzy w wielu innych obszarach. Nie sądzę, żeby udało się dogłębnie zrozumieć chociażby kod genetyczny człowieka bez wsparcia inteligentnych algorytmów. Dla mnie AI po prostu jest bardzo ważnym narzędziem, dzięki któremu będzie można przełamywać bariery w wielu dziedzinach.

Na zakończenie szybkie pytanie, szybka odpowiedź. Proszę dokończyć zdanie: Gdy myślę o sztucznej inteligencji, najbardziej przeraża mnie…

Brak rozsądku ludzi, że AI zostanie wykorzystana – i to już się dzieje – w niecnych celach.

Gdy myślę o sztucznej inteligencji, najbardziej fascynuje mnie…

Jej umiejętność szybkiej analizy i wyszukiwania wzorów w dużych zbiorach danych.

Gdy myślę o sztucznej inteligencji, widzę świat…

… bardziej autonomiczny. Czy będzie on lepszy, to już zależy od nas.

Gdybym miał wybór, chciałbym/nie chciałbym żyć w takim świecie…

Chciałbym.

Ponieważ…

Myślę, że będzie ciekawie [uśmiech].

Dziękuję bardzo za rozmowę.

Również dziękuję.

***Rozmowa z dr Tomaszem Rożkiem na temat technologii, w tym sztucznej inteligencji, w kontekście kosmosu będzie dostępna na portalu Space24.pl.


Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.  

image
Fot. Reklama
Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze

    Reklama