Reklama
  • WYWIADY
  • WIADOMOŚCI

Pruski model szkoły odchodzi do lamusa? Była ekspertka Pentagonu nie ma wątpliwości

Wraz z postępującym rozwojem sztucznej inteligencji sposób, w jaki zdobywamy wiedzę, wkracza na nieznany dotąd obszar. Tradycyjne sale lekcyjne i statyczne programy nauczania z trudem nadążają za światem, w którym umiejętności ewoluują szybciej niż kiedykolwiek. Od cyberzagrożeń po wojnę hybrydową, od dożywotniej kariery po wielokrotne przekształcanie tożsamości zawodowej - przyszłość wymaga radykalnie innego podejścia do edukacji. O tym, jak może wyglądać nowy model nauki i czym jest koncepcja Future Learning Ecosystem, rozmawiamy z dr Sae Schatz.

„Jeśli Twoim celem jest prawdziwa nauka i rozwój, to te narzędzia cyfrowe dają nam sposoby na »hiperskalowanie« ludzkiego potencjału” - mówi w wywiadzie dr. Sae Schatz
„Jeśli Twoim celem jest prawdziwa nauka i rozwój, to te narzędzia cyfrowe dają nam sposoby na »hiperskalowanie« ludzkiego potencjału” - mówi w wywiadzie dr. Sae Schatz
Autor. CyberDefence24/Canva

Dynamiczny rozwój sztucznej inteligencji i generalnie nowych technologii nie tylko zmienia sposób, w jaki pracujemy, ale przede wszystkim redefiniuje to, jak się uczymy. W świecie, w którym, według szacunków, nawet 40% obecnych umiejętności zawodowych ulegnie zmianie, tradycyjny model edukacji przestaje więc odpowiadać na potrzeby rzeczywistości.

Czy szkoła i uniwersytet, oparte na liniowym, jednolitym systemie kształcenia, są w stanie przygotować nas na erę ciągłych zmian, zagrożeń hybrydowych i na ten moment raczej nieuniknioną współpracę człowieka z AI?

O koncepcji Future Learning Ecosystem (FLE) (pol. Ekosystem przyszłej edukacji), przyszłości edukacji, roli sztucznej inteligencji w rozwoju kompetencji, a także o wyzwaniach stojących przed sektorem bezpieczeństwa rozmawiamy z dr Sae Schatz – badaczką, założycielką Knowledge Forge LLC i byłą dyrektor inicjatywy ADL w Pentagonie.

Opinie wyrażone przez dr Sae Schatz są jej prywatnymi poglądami i nie odzwierciedlają stanowiska żadnej instytucji, z którą była lub jest związana.

Ekosystem przyszłej edukacji w praktyce

Zuzanna Sadowska, CyberDefence24: Czy mogłaby Pani własnymi słowami wyjaśnić, na czym polega koncepcja przyszłego ekosystemu edukacyjnego (FLE)?

Dr Sae Schatz, badaczka, założycielka Knowledge Forge LLC i była dyrektorka inicjatywy ADL w Pentagonie: Na początek pozwolę sobie zadać Pani pytanie. Gdyby miała Pani możliwość zaprojektowania na nowo systemu edukacji, szkoleń i egzaminów z uwzględnieniem wszystkich dostępnych dziś narzędzi, takich jak sztuczna inteligencja i internet, to czy wyglądałby on tak samo jak obecny model? Ten, w którym wysyłamy małe dzieci do szkoły, w której przebywają codziennie, aż osiągną 15, 18 lub 20 lat? Liniowy model, który jest mniej więcej taki sam dla wszystkich?

Gdy tak to Pani przedstawia, to faktycznie, system wydaje się być nieco przestarzały…

Oczywiście. Chodzi więc o to, jak przejść do nowego modelu uczenia się, który wykorzystuje narzędzia, które obecnie mamy.

Światowe Forum Ekonomiczne opublikowało niedawno raport, z którego wynika, że do 2030 roku średnio około 40% obecnych umiejętności stanie się nieaktualne z powodu nowych technologii, a co za tym idzie – powstania nowych miejsc pracy.

Oznacza to również, że musimy się uczyć przez całe życie, aby nieustannie zdobywać nowe umiejętności. Ale nie będziemy przecież do 75 roku życia siedzieć w salach lekcyjnych - zamiast tego potrzebujemy indywidualnie dostosowanej ścieżki ciągłego uczenia. Ścieżki zoptymalizowanej zarówno pod kątem czasu i potrzeb każdego z nas, jak i możliwości naszych urządzeń.

I uważa Pani, że ludzki umysł jest w stanie to wszystko ogarnąć?

Oczywiście, że tak. Ale to sprowadza się do naszych systemów edukacji i szkolenia, które powinny umożliwiać tego rodzaju rozwój, a myślę, że na razie nie do końca to robią. Uniwersytety, instytucje obronne i inne tego typu placówki wciąż skupiają bardziej na kształceniu ekspertów o głębokiej wiedzy specjalistycznej.

Porozmawiajmy o tradycyjnych uczelniach. Gdybyśmy mieli wyszkolić eksperta do pracy w nowoczesnym, opartym na technologii środowisku, jakiej wiedzy i umiejętności naprawdę  by on potrzebował? Jak wydajny mógłby być, gdyby w pracy wspierało go narzędzie AI? 

Idąc dalej: czy osoba korzystająca z AI jako wsparcia w pracy nadal musiałaby posiadać te same kompetencje, czy też część wymagań mogłaby zostać odciążona, pozwalając nam - ludziom - skupić się na innych zadaniach?

Myślę, że się wahamy, bo stawka jest wysoka. Jakie - według Pani - jest największe ryzyko związane z tak dużym poleganiem na technologii?

To trochę odbiega od tego, o czym rozmawiałyśmy, ale myślę, że jednym z największych zagrożeń w obszarze obronności i bezpieczeństwa są zagrożenia hybrydowe. Tak jak specjaliści ds. edukacji mogą wykorzystywać technologie cyfrowe do umożliwienia nauki na dużą skalę, tak samo przestępcy mogą wykorzystywać te same systemy do zwiększenia zasięgu swoich szkodliwych działań.

Na przykład od czasu wprowadzenia ChatGPT obserwujemy ogromny - i mam tu na myśli naprawdę wielki - wzrost spamu, oszustw głosowych, ataków typu spear phishing i operacji mających na celu wywieranie wpływu. Propaganda prowadzona przez Rosję, Chiny czy Iran, wojna poznawcza i sabotaż są szczególnie trudne do zwalczania przy użyciu starych modeli. Nie są one zaprojektowane, by chronić przed nowymi zagrożeniami hybrydowymi, jednocześnie dając agresorowi znaczną przewagę asymetryczną.

Można to uznać za nieco naciągane, ale mówi się, że cyberprzestępcy są o krok przed obrońcami systemów. Czy dostrzega Pani w tym stwierdzeniu ziarno prawdy?

To dobre pytanie. Niektóre z tych technologii mają tak szerokie zastosowanie, że można je wykorzystać na wiele sposobów, a podmioty mające mniej skrupułów i podlegające mniejszym regulacjom z pewnością szybciej je znajdą. Ponadto takie osoby nie martwią się przepisami w taki sam sposób, jak reszta z nas. Nie martwią się też ryzykiem wyrządzenia szkody, wręcz przeciwnie - do niej dążą.

Reklama

Nie możemy powstrzymać rewolucji, ale możemy się do niej przygotować

Na pewno boimy się technologii, a głównym tego powodem są statystyki, o których już wspominałyśmy. Pani jednak uważa, że technologia jest częścią naszego życia i prawdopodobnie zawsze nią będzie, więc musimy się nauczyć z nią pracować.

Technologia AI, o której mówimy, tak naprawdę zagraża staremu modelowi uczenia się. Jeśli Twoim celem w nauczaniu ludzi jest sprawienie, by zapamiętywali rzeczy i pisali eseje, to tak, ChatGPT Cię przewyższy. Ale jeśli Twoim celem jest prawdziwa nauka i rozwój, to te narzędzia cyfrowe dają nam sposoby na „hiperskalowanie” ludzkiego potencjału.

Wszystkie wielkie wynalazki w historii spotykały się z głosami krytyków, którzy twierdzili, że to koniec świata. Sokrates słynął z tego, że twierdził, iż pismo będzie końcem rozumienia i pamięci. Przewidywano też, że prasa drukarska, kalkulatory i Wikipedia zaszkodzą nauce, ale my nadal się uczymy się i nadal nauczamy; w rzeczywistości dzięki tym osiągnięciom jesteśmy nawet silniejsi.

Co więc sprawia, że trzymamy się starego modelu?

Mamy wpływ na to, co będzie dalej.

Czy pozostaniemy przy sytuacji, w której większość szkół wciąż funkcjonuje według starego, pruskiego modelu sprzed 250 lat - zakładającego wieloletnią edukację w oderwaniu od codziennego życia i traktującego naukę jako coś odizolowanego - czy też zdecydujemy się na zmianę i dostosowanie do współczesności?

Czy będziemy kształcić ludzi jedynie „odtwarzających wiedzę”, czy raczej osoby wykształcone, elastyczne i wyposażone w kompetencje odpowiadające dzisiejszemu światu?

Nie musi to oznaczać pamięciowego opanowywania faktów, które można w każdej chwili sprawdzić. Może oznaczać rozwijanie zdolności adaptacji, umiejętność łączenia informacji z różnych źródeł oraz kształtowanie „ekspertów-generalistów”, którzy potrafią sprawnie poruszać się między dziedzinami.

To samo dotyczy rewolucji przemysłowej. Ludzie drżeli z obawy przed potencjalną utratą pracy, którą miały im przynieść maszyny. Czy można to porównać do sztucznej inteligencji?

Pruski system edukacji (z którego korzystamy do dziś) ukształtował się mniej więcej w tym samym czasie, co początki pierwszej rewolucji przemysłowej. Już w latach 30. XIX wieku w pełni wdrożono skalowalny system edukacji, oparty na ujednoliconych programach nauczania i krajowych standardach egzaminacyjnych. Podczas pierwszej rewolucji przemysłowej ludzie obawiali się utraty miejsc pracy, a znani z tego luddyści sprzeciwiali się mechanizacji. Ostatecznie ludzie rzeczywiście stracili pracę, a świat się zmienił - powstały jednak nowe zawody. 

Dzisiaj znajdujemy się w czymś, co wielu nazywa czwartą rewolucją przemysłową, charakteryzującą się technologiami takimi jak sztuczna inteligencja, systemy cyber-fizyczne i biotechnologia. Czy ta rewolucja wpłynie na miejsca pracy, społeczności i nasze życie? Tak. Ale prawdopodobnie stworzy też nowe możliwości.

Lepszym pytaniem więc będzie, „jak mądrze wykorzystać tę rewolucję”.

Wizja FLE zakłada malejące znaczenie stopni naukowych na rzecz kwalifikacji opartych na kompetencjach. Jak miałoby to działać?

Już teraz możemy zaobserwować podejście FLE w dużych firmach technologicznych. Zatrudniają one coraz mniej osób ze względu na dyplom, a zamiast tego wybierają kandydatów z szerokim zakresem certyfikatów, potrafiących wykazać się odpowiednimi kompetencjami.

Nie chcę przez to powiedzieć, że środowisko akademickie czy dyplomy są bezwartościowe, ale uważam, że stanowią one jedynie jedną z dróg do sukcesu zawodowego. W wielu przypadkach musimy odejść od tego monolitycznego podejścia do edukacji (gdzie trzeba poświęcić 20 lat, aby zdobyć dyplom) i podzielić ją na mniejsze, łatwiejsze do przyswojenia części.

Jak miałoby to wyglądać w praktyce?

Każdy z nas mógłby mieć dostęp do akredytowanej (lub podlegającej akredytacji) edukacji, szkoleń lub doświadczeń, a po zakończeniu każdego modułu otrzymywalibyśmy weryfikowalne poświadczenie – cyfrowe, podpisane kryptograficznie świadectwo.

Certyfikaty byłyby przechowywane w cyfrowym portfelu (podobnie jak przeglądarka gromadzi pliki cookie). Z czasem zgromadzony zbiór poświadczeń, kwalifikowałby do uzyskania dyplomu lub potwierdzenia kompetencji w danej dziedzinie. Byłyby one wiarygodne, ze względu na podpis kryptograficzny wystawiony przez uznany w danej dziedzinie autorytet – na przykład uniwersytet lub stowarzyszenie zawodowe.

Patrząc z perspektywy psychologicznej, takie rozwiązanie ma potencjał motywowania ludzi do bardziej organicznego odkrywania swojej ścieżki edukacyjnej. Osoba nie musi decydować o swojej karierze już w wieku nastoletnim, poświęcając później lata na studiowanie wybranego kierunku. Zamiast tego FLE pozwala budować specjalistyczną wiedzę zgodnie z aktualnymi zainteresowaniami, stopniowo stając się ekspertem w dziedzinie, która naprawdę jej odpowiada.

Jest taka książka zatytułowana „The 60 Year Curriculum” autorstwa Christophera Dede i Johna Richardsa. Opisuje ona, jak w ciągu swojego życia ludzie prawdopodobnie będą mieli siedem zupełnie różnych ścieżek kariery, nie tylko różnych stanowisk –różnych ścieżek kariery.

Nie spodziewałabym się aż tylu.

Czasy zmieniają się szybko, a my mamy szeroki dostęp do informacji. 

Spójrz na siebie. Teraz jesteś dziennikarką, a może za kilka lat zaczniesz bardziej interesować się dziennikarstwem medycznym. Zaczniesz więc zgłębiać wiedzę na temat opieki zdrowotnej, a następnie (łącząc swoje umiejętności w zakresie komunikacji, technologii i zdrowia) być może zaczniesz współpracować ze start-upami technologicznymi, pomagając im w promowaniu cyfrowych systemów opieki zdrowotnej. Możesz zacząć tworzyć własne aplikacje AI dla tego sektora, a w przyszłości (wyobraźmy sobie, że pojawią się nowe nanoboty medyczne) być może zostaniesz programistą nanobotów. To już cztery kariery.

Nagle wszystko to brzmi całkiem rozsądnie.

Wydaje się, że to najlepsze wykorzystanie ludzkiej ciekawości, a co za tym idzie – potencjału

Dokładnie. Uniwersalny format edukacji, w zasadzie nie pasuje nikomu. Zamiast tego możemy stworzyć nieskończoną liczbę formatów – wiele różnych sposobów uczenia się – wtedy w dowolnym momencie każdy będzie mógł znaleźć odpowiednią dla siebie opcję.

W ten sposób możemy uwolnić o wiele większy ludzki potencjał.

Edukacja wojskowa na rozdrożu zmian technologicznych

Czy uważa Pani, że ten model FLE można dostosować do struktur edukacji wojskowej?

Myślę, że taki system sprawdziłby się szczególnie dobrze w wojsku, ze względu na dobrze udokumentowane i uporządkowane struktury organizacyjne. Funkcjonują tam zarówno jasno określone cele w zakresie gotowości bojowej, jak i duża elastyczność w rozmieszczaniu personelu – w zależności od potrzeb, takich jak dostęp do symulatorów, zdobywanie konkretnego rodzaju doświadczenia czy udział w zajęciach w salach szkoleniowych.

Myślę więc, że organizacje zajmujące się obronnością i bezpieczeństwem naprawdę skorzystałyby na podejściu FLE.

W dokumencie, którego jest Pani współautorką, cytowany jest Fred Drummond z Pentagonu, który podkreślił, że celem nauki w wojsku jest zdolność bojowa. Co oznacza „zdolność bojowa” w kontekście tak dynamicznych zmian napędzanych przez sztuczną inteligencję

Cóż, myślę, że tak naprawdę pytanie brzmi: „co oznacza zdolność”?

Jeśli pracujesz w służbie zdrowia, być może mówisz o zdolnościach w zakresie opieki zdrowotnej, a jeśli pracujesz w edukacji, być może mówisz o zdolnościach dydaktycznych. 

Jeśli pracujesz w Pentagonie, oczywiście będziesz mówić o zdolnościach bojowych.

Jednak we wszystkich tych przypadkach oznacza to po prostu to, w jaki sposób umożliwiamy ludziom wykonywanie ich pracy najlepiej, jak potrafią. Myślę, że „najwięcej”, co możemy osiągnąć – nasz szczytowy potencjał ludzki – to nie tylko człowiek. To człowiek dobrze wykształcony i wyszkolony, a nawet więcej – człowiek, który jest dodatkowo dobrze wspierany przez cyfrowe technologie.

Coś w rodzaju „inteligencji rozszerzonej”.

Dokładnie! W praktyce już funkcjonujemy w ten sposób: stale mamy przy sobie telefony i korzystamy z internetu, aby rozszerzać pamięć oraz uzupełniać wiedzę. Pojawia się więc pytanie, jak można ten proces jeszcze bardziej wzmocnić i świadomie go zaprojektować.

To prowadzi właśnie do zagadnień związanych z FLE, w tym do jego kluczowego pytania: jakie kompetencje powinniśmy realnie rozwijać u ludzi, a które mogą być wspierane w czasie rzeczywistym przez systemy cyfrowe, działające jako zewnętrzne rozszerzenie pamięci i wiedzy.

Można sobie wyobrazić mechanika: może nie musi on zapamiętywać wszystkich różnych sposobów naprawy konkretnego silnika, a zamiast tego nosi wyświetlacz rzeczywistości rozszerzonej, ma na sobie słuchawki, a instrukcje podaje mu chatbot oparty na sztucznej inteligencji.

Oczywiście potrzebna jest pewna podstawowa wiedza. Nie mam smykałki do mechaniki i narobiłabym bałaganu – z AI czy bez! Ale dla kogoś, kto jest doświadczonym mechanikiem, korzystanie z tego rodzaju technologii wspomagających funkcje poznawcze może być swego rodzaju supermocą.

Zastanawiam się tylko, czy nie spowodowałoby to problemów z przypisaniem odpowiedzialności. Jeśli mechanik zepsuje samochód, to czy to on jest odpowiedzialny za błąd, czy winę ponosi sztuczna inteligencja… a może firma, która wyprodukowała tę technologię

To naprawdę dobre i trudne pytanie dla decydentów.

Musimy postępować mądrze, brać pod uwagę kwestie etyczne, i uwzględnić wiele różnych punktów widzenia, bo w grę wchodzi masa różnych stron. Nie znam właściwej odpowiedzi. Chociaż myślę, że można śmiało powiedzieć, iż musimy zastanowić się nad nowymi modelami rozwiązywania tych problemów. Zebranie grupy mądrych ludzi i spisanie zbioru przepisów liczących 15 000 słów, będzie po prostu niewystarczające.

Zarządzanie to kolejny obszar, w którym możemy wykorzystać narzędzia sztucznej inteligencji. Gdybyśmy dzisiaj projektowali rząd przy użyciu dostępnych technologii, moglibyśmy chociażby uwzględnić więcej sposobów zbierania opinii publicznej, oceny postępów w realizacji polityki oraz iteracji decyzji – tak jak programiści iterują kod.

Myślę, że moglibyśmy być o wiele bardziej kreatywni, gdybyśmy tylko sobie na to pozwolili.

Gdybyśmy się nie bali

Zawsze, gdy pojawia się coś nowego, powinniśmy zachować rozsądek i ostrożność. Ale jednocześnie, ze względu na przyspieszenie i złożoność otaczającego nas świata, uważam, że sposoby, w jakie organizujemy instytucje i społeczeństwa, muszą się zmienić.

Nie możemy już polegać wyłącznie na tym, że ludzie są dobrze wykształceni i awansują na stanowiska kierownicze dzięki swoim zasługom. Jest po prostu zbyt wiele rzeczy, aby jedna osoba (lub nawet panel osób) mogła je wszystkie ogarnąć.

Przejście na modele oparte na sieciach, eksperymentowaniu, iteracji i współpracy pomogłoby nam osiągnąć ten cel. 

Sztuczna inteligencja przejmuje zadania proceduralne i analityczne, wymuszając zmianę kompetencji bardziej w kierunku kreatywnego rozwiązywania problemów. Czy wojskowe instytucje edukacyjne związane z wojskiem powinny zatem przeformułować swoje programy, aby kształcić więcej ekspertów-generalistów? Jak według Pani miałoby to wyglądać?

Myślę, że to prawda, i to nie tylko w przypadku wojska; a wielu ról w sektorze bezpieczeństwa. Potrzebujemy ludzi, którzy są bardziej wszechstronnymi ekspertami. 

Chodzi mi o to, że nie tylko kształcimy ludzi posiadających głęboką wiedzę specjalistyczną w jednej dziedzinie, ale także takich, którzy rozumieją, jak koordynować działania w wielu różnych dyscyplinach. Głęboka wiedza specjalistyczna (jak „zarządzanie podatnością na zagrożenia” lub „reagowanie kryzysowe”) często jest już możliwa dzięki narzędziom AI. 

Eksperci-generaliści potrzebują też szerszych, transdyscyplinarnych kompetencji, takich jak krytyczne myślenie, metapoznanie, myślenie strategiczne i systemowe, empatia i świadomość.

A czy możliwe jest zaprojektowanie systemu szkoleniowego, który uwzględnia stres i  irracjonalność ludzkich decyzji?

Szkolenia i edukacja nie skupiają się wyłącznie na rozwijaniu umiejętności poznawczych. Programy szkoleniowe powinny wspierać rozwój pełnego zakresu ludzkich możliwości. Oznacza to także kontrolę emocji, radzenie sobie ze stresem, metapoznanie, myślenie perspektywiczne i tak dalej. Ważne jest, aby podczas wdrażania tych kompetencji do systemów edukacyjnych myśleć holistycznie i nie sprowadzać efektów wyłącznie do prostych umiejętności psychomotorycznych lub wiedzy niższego rzędu.

Tak więc, jest to nie tylko możliwe, ale i absolutnie konieczne!

Istnieje wiele świetnych teorii, które mogą to poprzeć, a nawet różne rodzaje czujników (na przykład neurofizjologiczne czujniki śliny wykrywające hormony stresu) lub modele wydajności, które mogą nam pomóc w pracy nad tymi zagadnieniami. Są to więc rzeczy, których można się nauczyć.

Wydajność w warunkach stresu była już dość intensywnie badana, a badania te będą się tylko nasilać. W ciągu najbliższych kilku lat na rynku pojawi się też znacznie więcej komercyjnych rozwiązań z zakresu neurotechnologii. Są one dostępne już dziś, ale w połączeniu z narzędziami sztucznej inteligencji, myślę, że zobaczymy wiele nowych możliwości.

To kolejna dziedzina, która stanowi zarówno ogromną szansę, jak i budzi spore obawy.

Z pewnością będzie to obszar, na który ludzie będą zwracać szczególną uwagę. Połączenie sztucznej inteligencji z neurotechnologią może zrewolucjonizować sposób, w jaki pracujemy.

Wszystkie dzisiejsze nowatorskie technologie, takie jak neurotechnologia, technologia kosmiczna czy biotechnologie, będą stanowić serię – może nie rewolucji – ale wstrząsów dla naszego dotychczasowego sposobu działania.

Musimy być na to gotowi. A na ten moment nie sądzę, abyśmy przygotowywali ludzi na tego rodzaju przyszłość (która nadejdzie już za kilka lat).

Wszystko sprowadza się do naszego systemu szkolenia i edukacji.

Jakie kompetencje charakteryzują zatem skuteczny personel służb mundurowych?

Cóż, wiąże się to z tym, o czym rozmawialiśmy wcześniej — z potrzebą większej eksperymentacji i iteracji. To idealny obszar do zastosowania tego podejścia. Gdybym miała opracować wymagania i kompetencje dla żołnierza, policjanta lub polityka, zaczęłabym od opinii ekspertów merytorycznych i stworzyłabym wstępny model.

Ale potem natychmiast przeszłabym do podejścia opartego na danych: zbierania informacji, sprawdzania, kto faktycznie odnosi sukcesy, i wykorzystywania rzeczywistych danych empirycznych do udoskonalania modelu z biegiem czasu.

Ponadto cechy, które dziś charakteryzują doświadczonego żołnierza piechoty, mogą znacznie różnić się od tych, które będą wymagane w przyszłości, czy nawet już teraz lecz w innych kontekstach. Żołnierz w Ukrainie i żołnierz w Polsce mogą obecnie potrzebować zupełnie innych umiejętności, a do tego kompetencje ukraińskiego żołnierza dzisiaj różnią się od tych, jakie posiadał dwa lata temu. Modele muszą być więc dynamiczne, poparte danymi empirycznymi oraz dostosowane do konkretnego kontekstu i wymagań. Podkreśla to tylko znaczenie koncepcji FLE.

No właśnie. Czy pracując w różnych służbach bezpieczeństwa zauważyła Pani bariery kulturowe (jak nacisk na hierarchię, umiejętności twarde lub tradycyjne normy płciowe), które mogłyby wpływać na wdrażanie FLE?

Powiedziałabym, że siłą napędową dla wszystkich specjalistów ds. bezpieczeństwa jest przede wszystkim dążenie do osiągania dobrych wyników. Można to powiedzieć również o innych sektorach; na przykład osoby poważnie podchodzące do cyberbezpieczeństwa wykorzystują wszystkie dostępne narzędzia i szkolenia, aby dać osiągnąć jak najlepszy rezultat. 

Wyzwaniem, które dostrzegam znacznie częściej, jest interoperacyjność. Szczególnie w kontekście takim jak NATO. Jak sprawić, by 32 kraje oraz wszyscy partnerzy efektywnie ze sobą współpracowali? Jak sprawić, by wszystkie te kraje, posługujące się różnymi językami, wyposażone w różny sprzęt, materiały i systemy cyfrowe, skutecznie się komunikowały? I nie chodzi tylko o komunikację między ludźmi, ale też o komunikację między naszymi systemami cyfrowymi.

Wszystko sprowadza się do najdrobniejszych szczegółów.

Nie chodzi tu tylko o syntaktyczne wyzwanie związane z przesyłaniem zer i jedynek z jednego komputera do drugiego. Weźmy na przykład zapis daty: jako Amerykanka piszę ją zaczynając od miesiąca, ale Pani jako Europejka zaczyna od dnia. Nawet tak drobna różnica może powodować zamieszanie, jeśli się jej nie uwzględni.

To prosty i oczywisty przykład, ale rozważmy ten związany z pojmowaniem ludzi, jak na przykład pojęcie „przywództwa”. Co to znaczy, jeśli powiem: „Mam cztery na pięć punktów w ocenie przywództwa”? Co w ogóle oznacza „przywództwo”? Może to być zupełnie inna koncepcja, jeśli pracuję w Polsce, a nie w Niemczech, lub w szpitalu, a nie na polu bitwy. 

Staje się to szczególnie trudne, gdy próbujemy podzielić szkolenia, edukację i zadania na mniejsze części, automatycznie przypisywać materiały szkoleniowe lub wskazówki w miejscu pracy oraz zapewnić współpracę między systemami, zespołami i krajami.

Reklama

Nadmiar informacji: cena cyfrowego świata

Mam wrażenie, że obecnie ludzie czują się nieco przytłoczeni całą tą technologią. Jest to trochę dla mnie to znak, że nie korzystamy z niej właściwie. To też oczywiście pokłosie tego, że nie uczy się nas, jak efektywnie z niej korzystać - w zgodzie z ludzką naturą. Postrzegamy ją więc jako zagrożenie, które ogranicza ludzki potencjał. Pani wychodzi temu myśleniu naprzeciw, twierdząc, że technologia to szansa.

Nie sądzę, by problem polegał koniecznie na tym, że ludzie nie rozumieją technologii. Zwróciłabym raczej uwagę na dwie rzeczy.

Po pierwsze, żyjemy w świecie, w którym jesteśmy nieustannie przeciążeni. „Przeciążenie informacyjne” jest realne i ma rzeczywisty wpływ na nasze funkcje poznawcze, zdolność skupienia uwagi oraz zdrowie psychiczne. Jeśli więc tak się czujesz, wynika to nie z tego, że robisz coś źle, lecz z realiów świata, w którym obecnie żyjemy.

Po drugie, chciałabym podkreślić (szczególnie twórcom technologii) znaczenie przyjaznego dla użytkownika interfejsu (UI – przyp. red.). Doradzając ludziom, zachęcam ich, aby zwracali na to uwagę już na wczesnym etapie, ponieważ usuwanie barier w korzystaniu z systemu jest kluczowe. Jeśli coś jest mylące lub trudne w użyciu, często wynika to z faktu, że nie zostało zaprojektowane z myślą o dobrym interfejsie.

Pojęcie dobrego interfejsu człowiek–system wykracza poza sam UI. Istnieją dziedziny praktyki, takie jak nauka o wdrażaniu i integracja systemów ludzkich, które obejmują wszystkie sposoby dostosowywania nowych technologii do ludzi i naszych kontekstów. Jeśli tego nie robimy, dopasowanie między człowiekiem a technologią będzie nieoptymalne.

Tak więc, choć szkolenia i edukacja w zakresie nowych technologii są bardzo ważne, musimy zadbać o to, by nie ograniczać się jedynie do przekazywania ludziom większej ilości informacji. Musimy pomóc im skutecznie poruszać się w tym morzu informacji. W ostatecznym rozrachunku nie da się „wyszkolić” z nieudanej konstrukcji technologicznej.

Czy istnieje zatem jakiś sposób na zminimalizowanie nadmiaru informacji?

To naprawdę dobre pytanie. Przede wszystkim musimy być świadomi przeciążenia informacyjnego i jego wpływu na naszą umiejętność podejmowania dobrych decyzji. Nasze zdolności decyzyjne i uwaga – zasoby wykonawcze kory przedczołowej – są ograniczone. Bardzo ważne jest, aby je chronić.

Za każdym razem, gdy przeglądasz negatywne wiadomości lub oglądasz krótkie filmy, zużywasz część tych umysłowych zasobów, przez co później mamy ich mniej do dyspozycji.

Musimy nauczyć się samoregulacji.

Myślę, że krótkoterminową radą jest obserwowanie, jak się czujesz, gdy jesteś przeciążony zbyt dużą ilością informacji. Bardzo, bardzo ważne jest również, aby w pewnym momencie odłożyć ekrany i chociaż na chwilę wyjść na łono natury - do nie-cyfrowego świata.

Po prostu poświęć trochę czasu wyłącznie na swoje zdrowie psychiczne.

A w dłuższej perspektywie?

Uważam, że potrzebujemy prawdziwych szkoleń, edukacji i dyskusji na temat tego rodzaju problemów związanych ze zdrowiem psychicznym, tak jak ma to miejsce w przypadku sprawności fizycznej i odżywiania.

Czy sztuczna inteligencja może podjąć decyzję ostateczną?

Systemy sugerują działania na polu bitwy, ale ostateczne decyzje nadal podejmują ludzie. Czy uważa Pani, że kiedykolwiek dojdziemy do punktu, w którym powierzymy sztucznej inteligencji podejmowanie kluczowych decyzji, takich jak naciśnięcie „czerwonego przycisku”?

To prowadzi nas z powrotem do niektórych z tych szerszych kwestii politycznych.

Jeśli jednak mówimy o dzisiejszej technologii, musimy być naprawdę ostrożni, ponieważ obecne systemy nie zostały w pełni przetestowane w sensie „dojrzałości na dużą skalę”. Istnieje taki słynny eksperyment myślowy zwany „maksymalizator spinaczy”.

Maksymalizator spinaczy?

Niech sobie Pani wyobrazi, że zleca Pani wyposażonej w super-sztuczną inteligencję fabryce jedno zadanie: wyprodukować jak najwięcej spinaczy. Co robi sztuczna inteligencja?

Próbuje wyprodukować jak najwięcej spinaczy. Ale potrzebuje więcej zasobów, więc wysyła roboty, aby zebrały surowce. Kiedy ludzie stają na drodze robotów, sztuczna inteligencja postanawia ich wszystkich zlikwidować, aby przejąć ich całe zasoby na Ziemi. Może nawet zbudować statki kosmiczne, by dotrzeć na inne planety i wydobywać tamtejsze zasoby, tylko po to, by wyprodukować jak najwięcej spinaczy.

Wow, to trochę… przesadzone.

Przecież trzeba pozbyć się tych nieznośnych ludzi, którzy blokują dostęp do zasobów!

Oczywiście jest to trochę głupiutkie, ale jeśli zastanowić się nad tym w praktyce, sztuczna inteligencja nie ma takich samych ograniczeń jak my, ludzie – chyba że są one wyraźnie zaprogramowane w aplikacji. My (ludzie) mamy kontekst, którego system sztucznej inteligencji niekoniecznie posiada.

Nie zastanawia się nad takimi kwestiami jak człowieczeństwo czy moralność, ponieważ niekoniecznie ich tego uczymy.

Dokładnie. Pozwól, że podam przykład tego, jak to działa w prawdziwym świecie: algorytmy mediów społecznościowych.

Na przykład Meta optymalizowała aplikację Facebooka pod kątem zaangażowania na platformie (spinacze). I co zobaczyliśmy? Po pierwsze, być może pamięta Pani skandal, w którym ludzie dowiedzieli się, że byli obiektem eksperymentów mających na celu przetestowanie różnych sposobów (jak treści wywołujące emocje) na zwiększenie zaangażowania. Wyciągając z nich wnioski, Facebook dostosował algorytm.

Niedługo potem, w Mjanmie, algorytmy były zoptymalizowane pod kątem negatywnych emocji. Zaangażowanie wynikało z promowanie mowy nienawiści i automatycznego odtwarzania negatywnych filmów. Trwało to przez jakiś czas, aż Amnesty International poinformowała, że Facebook w znacznym stopniu przyczynił się do ludobójstwa w tym kraju - właśnie poprzez promowanie retoryki przemocy.

Wracamy więc do pytania, czy w tym procesie człowiek  powinien brać udział. Czy naprawdę jesteśmy gotowi uruchomić autonomiczną „fabrykę spinaczy” na dużą skalę?

Nie, nie sądzę, abyśmy byli - z technologicznego punktu widzenia.

Zdecydowanie. Firmy muszą potraktować poważnie kwestie odpowiedzialności społecznej za swoje technologie i systemy.

Czasami nie można po prostu zmienić kilku drobnych rzeczy, a trzeba przemyśleć całą strukturę.

Tutaj Meta znów stanowi dobry przykład. Wyciekły pewne dokumenty wewnętrzne, z których wynika, że w 2024 roku dzięki oszukańczym reklamom przychody tej firmy wzrosły o 10%. Mówimy tu o kwocie około 7 miliardów dolarów!

Doskonale wiedzieli, że tak się dzieje i przymykali na to oko, uznając, że nawet gdyby zostali pozwani (pewnie będzie to UE), to nawet w najgorszym scenariuszu nadal osiągnęliby zysk.

Myślę więc, że to jest pytanie dla decydentów, ale nie chodzi tu tyle o regulacje, ponieważ ten obszar jest trudny do uregulowania ze względu na to, jak szybko się zmienia.

Czy skuteczniejsze byłoby stosowanie pozytywnego wzmocnienia i zachęt, czy też kar i regulacji?

W naszym zestawie narzędzi znajduje się cała gama środków, które powinniśmy przemyśleć. Nie wiem, jaka jest właściwa odpowiedź, ale mogę powiedzieć, że niewłaściwą odpowiedzią jest dalsze stosowanie modeli zarządzania, kształtowania polityki i prawa, które sprawdzały się sto lat temu. Po prostu nie nadają się już do naszych obecnych warunków.

Dlatego też wciąż powracam do idei modelu Cynefin stworzonego przez Dave’a Snowdena. Opisuje on, w jaki sposób kontekst wpływa na to, jak powinniśmy podchodzić do problemów i projektować struktury organizacyjne.

Na przykład sugeruje, że w skomplikowanym środowisku zjawiska są trudne do zrozumienia, ale nadal można je poznać: zrozumienie astrofizyki może być trudne, ale nadal można się jej nauczyć. Można studiować, przeprowadzać eksperymenty, korzystać z danych, polegać na naukowcach, którzy przenoszą najlepsze praktyki na wyższy poziom hierarchii, oraz podejmować rozsądne, metodyczne decyzje oparte na analizie.

Jednak w złożonym środowisku operuje zbyt wiele czynników, by móc stwierdzić: „och, widzę, jak A prowadzi do Z”. Sytuacja ulega ciągłym zmianom i nie wystarczy już polegać na analizie i sprawdzonej teorii.

Dlatego potrzebujemy pracy zespołowej.

Tak, potrzebujemy wielu małych grup, które eksperymentują i dzielą się informacjami w modelu opartym na sieci, a nie na hierarchii.

Model Cynefin obejmuje o wiele więcej aspektów, ale chcę podkreślić, że żyjemy obecnie w złożonym świecie, co naturalnie wpływa na rolę liderów – czy to w wojsku, rządzie, czy biznesie – a także na sposób, w jaki organizujemy nasze struktury: jako hierarchie lub sieci.

Reklama

Kiedy to CIEKAWOŚĆ wyznacza kierunek

Na koniec chciałabym usłyszeć Pani historię. Jak trafiła Pani do tej branży i z jakimi wyzwaniami musiała się Pani zmierzyć po drodze, zwłaszcza jako kobieta?

Zawsze interesowało mnie wiele różnych rzeczy. To skłoniło mnie do studiowania psychologii, a następnie interfejsów użytkownika, projektowania mediów i informacji, a później także informatyki. W końcu połączyłam te wszystkie aspekty, bo lubię rozumieć cały system i to, jak wszystko do siebie pasuje. Zajęłam się modelowaniem i symulacją, a także zastosowaniem modeli w poprawie wydajności człowieka - na przykład poprzez szkolenia lub analizę.

Jest Pani doskonałym przykładem osoby, która „praktykuje to, co głosi”. Mając tak wiele zainteresowań, obecny system edukacji musiał być dla Pani co najmniej frustrujący.

Wszystko to doprowadziło mnie do pracy nad różnorodnymi projektami, a ostatecznie znalazłam się w środowisku sił bezpieczeństwa: wojska, obrony, bezpieczeństwa narodowego i organizacji typu NATO. Bo to są problemy, które naprawdę mają dla mnie znaczenie. Próbowałam też innych kontekstów, takich jak praca dla firm, ale to miejsce nastawione na zysk i nie znalazłam tam takiego samego poczucia spełnienia.

Chciała się Pani zmierzyć się z „dużymi” problemami.

Z mojego doświadczenia wynika, że kiedy pracujesz nad trudnymi problemami, ludzie bardziej zwracają uwagę na wyniki i efekty niż na to, jak wyglądasz lub w co jesteś ubrana. 

Liczy się to, czy potrafisz wykonać zadanie.

Obserwujemy to zjawisko jeszcze wyraźniej w obliczu rewolucji sztucznej inteligencji, bo wszystko dzieje się tak szybko, że nie ma czasu na zbędne dodatki.

Opieranie się wyłącznie na jednej konkretnej grupie osób nie pozwala na utrzymanie odpowiedniej siły roboczej. Firmy i rządy muszą szukać pracowników w różnych środowiskach, kierując się ich kompetencjami, a nie płcią czy osobistymi preferencjami.

Istnieje wiele danych potwierdzających tezę, że zespoły złożone z osób o zróżnicowanym pochodzeniu, z różnymi doświadczeniami, wykształceniem i obszarami specjalizacji, osiągają lepsze wyniki, bo wnoszą do pracy wiele różnych perspektyw.

Jeśli kiedykolwiek znajdziesz się w sytuacji, w której jesteś ignorowana lub źle traktowana tylko dlatego, że jesteś kobietą, jesteś młodsza lub nie masz takiego samego pochodzenia, oznacza to, że miejsce prawdopodobnie nie jest nastawione na osiąganie dobrych wyników.

A jeśli miejsce pracy jest bardziej zainteresowane tego rodzaju biurowymi intrygami niż osiągnięciem celu, to być może nie jest to dobre miejsce dla Ciebie.

Bardzo dziękuję za rozmowę.

CyberDefence24.pl - Digital EU Ambassador

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Krajowy system e-Faktur - co musisz wiedzieć o KSEF?

YouTube cover video
Materiał sponsorowany