SI: Puszka Pandory czy Święty Graal cyberbezpieczeństwa?

14 listopada 2016, 12:21
Fot. Domena publiczna

Maszyny samouczące się, zaprojektowane przez Google, stworzyły własny system szyfrowania, którego nie rozumieją inżynierowie odpowiedzialni za rozwój botów.

Sieci neuronowe, takie jak Google Brain stworzone przez Google, nie należą do najlepszych narzędzi do tworzenia szyfrów wykorzystywanych przy komunikacji elektronicznej. Jednak doświadczenie przeprowadzone przez inżynierów pokazuje, że takie boty są w stanie wytworzyć bezpieczny sposób komunikacji, którego inny bot stworzony przez firmę nie będzie potrafił odczytać.

Eksperyment Google'a polegał na przekazaniu dwóm sieciom neuronowym — Bob i Alice — jednego klucza, którym mogą posługiwać się podczas komunikacji. Trzeci bot Eve miał za zadanie podsłuchanie ich rozmowy. Dzięki wynikom tego eksperymentu, bez wcześniejszego pokazywania maszynom samouczącym się, jak wygląda szyfrowanie, zauważono wiele ciekawych problemów.

Po pierwsze Bob, mimo posiadania odpowiedniego klucza szyfrowania, musiał zgadnąć, jak Alice zaszyfrowała wiadomość. Dopiero w okolicach 10 tys. próby Bob odczytywał błędnie tylko jeden z 16 bitów, podczas gdy Eva była w stanie odczytać 10 z 16 bitów wiadomości. W okolicach 15 tys. prób, sieć neuronowa Bob, potrafiła bezbłędnie odczytać wiadomość, kiedy Eva zwiększyła swoją ilość błędów przy odczytywaniu z 5 do 8. Sposób szyfrowania jaki wykorzystały sieci neuronowe, nie był nawet zbliżony jakością do podstawowych zabiegów kryptologicznych ludzi. Tutaj maszyny z dostarczonym kluczem, musiały same wymyślić, jak mogą się bezpiecznie komunikować, bez odczytywania kodu przez inną maszynę.

Programy piszące inne programy nie są niczym nowym, jeżeli chodzi o programowanie. Pierwsze z nich pojawiły się już w latach 90. ubiegłego wieku. Musiały one same nauczyć się oprogramowania w celu dalszego ulepszania. Jednak nowością i ciągle nie do końca zrozumianym problemem są właśnie sieci neuronowe, które składają się z ciągów matematycznych, ułożonych tak, aby przypominały sieć neuronową człowieka.

Pomysł na wykorzystanie maszyny, która metodą prób i błędów będzie zmieniać świat na lepsze, zrodził się wśród inżynierów agencji DARPA. W sierpniu tego roku nagrodziła ona podczas zawodów Cyber Grand Challenge kwotą 2 mld dolarów zespół odpowiedzialny za projekt Murphy. Murphy jest maszyną uczącą się i szuka w systemach informatycznych krytycznych luk, które mogłyby być wykorzystane przez hakerów. Oprócz tego jej zadaniem jest obrona sieci, w której została zainstalowana.

Podczas zawodów program okazał się najlepszy, ale już na konferencji Black Hat 16, kiedy musiał zmierzyć się z zespołem hakerów — z łatwością został przez nich pokonany. Jednak nie trudno sobie wyobrazić, że w przyszłości, kiedy programy same nauczą się lepiej odróżniać problemy występujące w sieciach, to będą mogły zastąpić lub przynajmniej bardzo wspomóc prace administratorów sieci.

Czytaj też: Roboty będą popełniać więcej przestępstw niż ludzie?

Z drugiej strony, jeżeli maszyny uczące się mogą zostać wykorzystane do ochrony sieci, to można je też zastosować do przeprowadzania ataków. To powoduje kolejne komplikacje, jeżeli programy komputerowe będą walczyć pomiędzy sobą o bezpieczeństwo sieci informatycznych. Gorzej, jeżeli ludzie nie zapanują nad tym problemem i nie wprowadzą w odpowiednim momencie tzw. przycisku bezpieczeństwa, który zatrzyma sztuczną inteligencję zanim będzie za późno.

Nie jest to problem aktualny, jednak za kilka lat może okazać się, że brak wcześniejszego wprowadzenia takich rozwiązań było błędem. Pierwsze próby ze stworzeniem choćby antywirusa, chodzi tu o rozwiązanie DeepArmor firmy SparkCognition, wypadają zadowalająco, więc szczególnie przy brakach kadrowych można spodziewać się rozwoju całego sektora w kierunku np. sieci neuronowych. Należy pamiętać, że nie wszyscy zamierzają czekać, aż ktoś wprowadzi odpowiednie zapisy prawne zabraniające stworzenia sztucznej inteligencji nieposiadającej ograniczeń.

 

CyberDefence24
CyberDefence24
KomentarzeLiczba komentarzy: 0
No results found.