Google: Korzyści ze sztucznej inteligencji przeważają nad zagrożeniami

13 listopada 2018, 08:50
artificial-intelligence-155161_960_720
Fot. OpenClipart-Vectors/pixabay/Creative Commons

Pod względem potencjału sztuczna inteligencja (AI) przypomina energię atomową, jednak w odróżnieniu od niej nie poddaje się łatwemu nadzorowi. Mimo to korzyści z jej wdrażania przeważają nad zagrożeniami - przekonywali w Amsterdamie przedstawiciele firmy Google.

Dyrektor ds. rozwoju sztucznej inteligencji w Google Jeffrey Dean stwierdził, że w ciągu ostatnich dziesięciu lat prace nad sztuczną inteligencją odnotowały znaczące postępy, które przełożyły się na wzrost możliwości maszyn w zakresie np. tłumaczenia języków naturalnych oraz rozpoznawania obrazów, a także na wzrost zainteresowania firm i rządów (m.in. Unii Europejskiej oraz Chin). W ocenie Deana powstanie systemów AI zdolnych do wykonywania wielu zróżnicowanych zadań to nadal kwestia przynajmniej 5-10 lat.

Mimo istniejących ograniczeń rozwój sztucznej inteligencji spotyka się z dużymi obawami podsycanymi przez popularne przedstawienia tej technologii w literaturze, grach i kinie - np. w filmach "2001: Odyseja kosmiczna" i w serii "Terminator". Przed niebezpieczeństwem związanym z AI przestrzegał m.in. amerykański inwestor i przedsiębiorca Elon Musk, były szef firmy Tesla i założyciel SpaceX, który wielokrotnie porównywał sztuczną inteligencję do broni atomowej.

"To uprawnione porównanie, jeżeli zwracamy uwagę na potęgę technologii. Na tym jednak podobieństwa się kończą. Sztucznej inteligencji nie da się kontrolować tak, jak wzbogacania uranu. Do jej wykorzystania nie potrzeba rzadkich pierwiastków ani skomplikowanych narzędzi - wystarczą komercyjne karty graficzne" - przestrzegł Dean, dodając, że wraz z innymi badaczami podpisał wcześniej list otwarty sprzeciwiający się wykorzystaniu tej technologii do produkcji autonomicznej broni. Firma Google zobowiązała się ponadto, że nie będzie prowadziła prac w tym zakresie.

Zdaniem Deana rządy powinny skupić się na kwestii nadzoru nad zastosowaniami AI, a nie na samej technologii. Ekspert wskazał przy tym m.in. na potrzebę regulacji w zakresie zastosowania rozwiązań biometrycznych (np. rozpoznawania twarzy) w przestrzeni publicznej. Podkreślił również społeczne konsekwencje automatyzacji, wskazując na przykład technologii pojazdów autonomicznych.

"Wprowadzenie aut samojezdnych na drogi to kwestia najbliższej przyszłości. Społeczeństwa muszą mieć to na uwadze i zadbać o ich przeszkolenie do nowych zadań, by zapewnić osobom zagrożonym stratą pracy alternatywę wobec przemian technologicznych" - powiedział Dean.

Mimo tych zastrzeżeń specjaliści utrzymują, że korzyści płynące z rozwoju sztucznejinteligencji - np. w zakresie diagnostyki medycznej, przewidywania i reagowania na katastrofy naturalne i inne wydarzenia kryzysowe czy też do optymalizacji upraw rolnych i hodowli - przeważają nad zagrożeniami.

"Najważniejsze dla technologii to pomagać ludziom w rozwiązywaniu problemów, z którymi się mierzą. Chodzi zarówno o zwiększanie wygody poprzez upraszczanie codziennych czynności dzięki tworzeniu +inteligentnego otoczenia+ z wykorzystaniem wirtualnych asystentów, jak i o radzenie sobie z problemami społecznymi" - powiedział PAP w Amsterdamie wiceprezes firmy Google ds. wyszukiwarki i sztucznej inteligencjiYossi Matias.

"Każda technologia może zostać zastosowana zarówno w dobrym, jak i w złym celu. Jako społeczeństwo musimy przyjąć zasady, by upewnić się, że prace nad rozwojem AI prowadzone są w sposób odpowiedzialny" - stwierdził Matias. Wskazał przy tym na ogłoszone przez firmę wewnętrzne wytyczne dotyczące prac nad sztuczną inteligencją. Obejmują one dbałość o ochronę prywatności, bezpieczeństwo oraz troskę o dobro społeczne i utrzymanie ludzkiej kontroli. "Obawy nie powinny przesłaniać nam korzyścii spowalniać rozwoju ani przyjmowania technologii" - zastrzegł wiceprezes Google'a.

"AI to niesamowite narzędzie pozwalające nam robić rzeczy, które wcześniej pozostawały poza naszym zasięgiem. Wykorzystanie sztucznej inteligencji pozwala odmienić inżynierię, naukę, opiekę zdrowotną i inne obszary, nawet jeśli wiążą się z tym obawy. Jak zawsze, kiedy przychodzi zmiana, powinniśmy się upewnić, że jest to zmiana na lepsze" - ocenił Dean.

PAP - mini

CyberDefence24
CyberDefence24
KomentarzeLiczba komentarzy: 2
Oskar
piątek, 30 listopada 2018, 15:09

Nagły rozwój technologii oraz szybko spadające ceny ich wprowadzania do firm sprawiają, że przemysł przechodzi rewolucje jeszcze szybciej niż jeszcze parę lat temu zakładaliśmy. Czekam teraz na event, który odbędzie się w grudniu, na którym mam nadzieję, że zostanie to dobrze zobrazowane. Fabryka Cyfrowych Przemian - Wystąpienie Pana Jarosława Zarychta i jego prezentacja interaktywnej Fabryki Przyszłości najbardziej mnie ciekawi

Artur
środa, 14 listopada 2018, 11:37

Podobno sztuczna inteligencja to ta technologia, której jeszcze nie wymyśliliśmy. To co rozwijamy to uczenie maszynowe. Te dwa słowa konkretniej oddają naturę i charakter tej technologii. Tworzymy maszynę ze zdolnością do adaptacji do zmiennych warunków, wyciągania wniosków i ostatecznie podejmowania decyzji na ich bazie. Łatwo tutaj o pomyłkę i pierwsze wrażenie dalekie od rzeczywistości. Podstawą procesu edukacji zawsze jest zdolność do percepcji otoczenia. Podstawowym problemem jest określenie, gdzie kończę się "ja" a zaczyna otoczenie które ma na mnie wpływ. Rozstrzygnięcie tego problemu dla systemów kognitywnych jest zadaniem silnie zależnym od zastosowania maszyny która ma się uczyć. Inaczej sytuacja wygląda w przypadku samochodu autonomicznego, inaczej asystenta w telefonie a jeszcze inaczej w przypadku zautomatyzowanego systemu zarządzania procesem technologicznym, o broni nie wspominając. Dopiero określenie "ja" stanowi podstawę dla dalszych kroków budowania samoświadomości, bez której nie ma inteligencji a uczenie jest mocno ograniczone. Wśród wielu innych aspektów, wymagających wieloletniej pracy jest kwestia zagadnienia danych używanych do uczenia maszynowego i danych używanych do testowania maszyny. Większość tych danych, ostatecznie pochodzi i dotyczy ludzi, przetwarzając je tak jak badamy funkcję matematyczną określając jej pochodną (czy całkując) poruszamy się po obszarze "ukrytych danych" czyli trendów i korelacji, które nie dostrzegamy w samych danych. Problemem jest nie tylko wolumen danych ale i ich zróżnicowanie. Uczenie maszynowe zdecydowanie pomoże w tym zagadnieniu ujawniając wiele ukrytych trendów i zjawisk społecznych. Wiedzy, która będzie leżała u podstaw poznawczych procesów decyzyjnych określających działanie takiego "robota". Uczenie maszynowe tym samym zbuduje cybernetyczną wersję człowieka, z jego nawykami, choć w skali makroskopowej albo tworząc obiekt o reakcjach "uśrednionych" i typowych dla danej społeczności, przez co pozbawiony cech indywidualnych, które są podstawą ambicji i "naturalności" każdego z ludzi, albo cyfrową kopię konkretnej osoby - klona. Dlatego od początku prac nad tym problemem, starannie próbuje się wyeliminować szkodliwe trendy z danych, które służą nauce, co samo w sobie przypomina proces edukacji w zamkniętej na świat szkole. Efekty znamy. Jak widać, problem jest tak samo głęboki jak badanie ludzkiej natury, czy źródeł zachowań. Nie rozwiążą go programiści i technolodzy, nie pomogą też futuryści. Neuropsycholodzy i psychiatrzy również sami nie dadzą rady. To musi być (i zawsze był) wysiłek całej społeczności. Podsumowując ten przydługi komentarz: głównym zagrożeniem powstającej "sztucznej inteligencji" są mury zbudowane pomiędzy ludźmi którzy chcą widzieć ją ułatwiającą życie w naszej cywilizacji. Dobrymi chęciami wiadomo co jest wybrukowane.

Tweets CyberDefence24