Reklama

AI na wojskowej uczelni. Czego zabrania regulamin?

Wojskowa Akademia Techniczna wdrożyła regulamin stosowania rozwiązań AI
Wojskowa Akademia Techniczna wdrożyła regulamin stosowania rozwiązań AI
Autor. Freepik.com

Sztuczna inteligencja jest coraz powszechniej wykorzystywana w naszym codziennym życiu. Regulacje są wdrażane nie tylko na poziomie międzynarodowym czy krajowym. Wojskowa Akademia Techniczna opublikowała właśnie regulamin stosowania rozwiązań AI przez studentów. Dokument posiada wiele interesujących oraz zasadnych reguł.

Jawne prace nad holistycznym wykorzystaniem AI w Wojsku Polskim trwają od ponad roku. 2 lipca 2024 roku zapowiedziano utworzenie Centrum Implementacji Sztucznej Inteligencji (CISI). Nieco ponad trzy miesiące wcześniej gen. dyw. Karol Molenda, Dowódca Komponentu Wojsk Obrony Cyberprzestrzeni, przekazał w wywiadzie z naszym portalem, że sztuczna inteligencja była wykorzystana m.in. w trakcie ćwiczeń Anakonda-23 w ramach systemów obrazowania.

Kolejnym aspektem jest sztuczna inteligencja w edukacji oraz badaniach naukowych. Warto podkreślić, że nie powinniśmy traktować jej jedynie jako zagrożenie, lecz również jako szansę – jest to jedynie narzędzie, zaś od nas zależy sposób jego wykorzystania. Należy pamiętać, że AI nie „zniknie” w przewidywalnej przyszłości, dlatego uregulowanie sposobów jej użycia na wojskowej uczelni to krok w dobrą stronę.

Czytaj też

Reklama

Regulamin stosowania AI – profilowanie i prywatność

W Biuletynie Informacji Publicznej Wojskowej Akademii Technicznej w Warszawie opublikowano Regulamin stosowania rozwiązań AI. Dokument określa „zasady wdrażania, stosowania i monitorowania rozwiązań sztucznej inteligencji (…) w działalności naukowej, dydaktycznej oraz administracyjnej”, co pokazuje przekrojowość regulacji.

Piąty paragraf dokumentu odnosi się do zasad etycznych. Możemy w nim znaleźć zapisy, mówiące o m.in.:

  • poszanowaniu godności człowieka, praw podstawowych oraz zasad przejrzystości, odpowiedzialności i sprawiedliwości;
  • zakazie inwigilacji, profilowania lub podejmowania decyzji automatycznych wobec pracowników, współpracowników lub studentów bez możliwości interwencji człowieka i bez właściwych regulacji wewnętrznych (...), w których taki zakres stosowania byłby wprost określony.

Powyższe dwa punkty, szczególnie dotyczący zakazu inwigilacji i podejmowania automatycznych decyzji wobec ludzi, to ważne wyznaczniki pewnych sfer, gdzie konieczny jest nadzór człowieka.

Niedopuszczalne jest podejmowanie decyzji wpływających na prawa lub obowiązki osób fizycznych wyłącznie w oparciu o systemy AI, których działania nie można wyjaśnić. (...) Preferowane są modele transparentne lub oparte na zasadzie XAI (Explainable AI).
Regulamin stosowania AI WAT

Czytaj też

Reklama

Generowanie prac przez studentów

Nieodzownym elementem Regulaminu jest wspomnienie o generowaniu treści. Punkt 3 wspomnianego paragrafu jasno podkreśla konieczność poszanowania zasad uczciwości akademickiej, rzetelności, wiarygodności oraz osobistej odpowiedzialności za przedstawione informacje”.

W pkt. 4 podkreślono, że autorzy prac powstałych z wykorzystaniem AI ponoszą „pełną odpowiedzialność za jakość merytoryczną przygotowanych treści oraz za skutki ich wykorzystania”. Dotyczy to również naruszeń przepisów prawa, szczególnie w zakresie praw autorskich oraz ochrony danych osobowych.

Autorstwo treści wygenerowanych przy użyciu narzędzi opartych na metodach sztucznej inteligencji – niezależnie od ich formy, w tym tekstów, algorytmów, oprogramowania, grafik czy utworów muzycznych – nie może być przypisywane osobie korzystającej z tych narzędzi jako twórcy w rozumieniu prawa autorskiego. Dla zachowania rzetelności naukowej i dydaktycznej konieczne jest jednoznaczne wskazanie źródła oraz zakresu wykorzystania treści wygenerowanych przez sztuczną inteligencję.
§ 5 pkt 6 Regulaminu stosowania AI w WAT

Bezpieczeństwo i ochrona danych osobowych

W Regulaminie zaznaczono, że do wdrożenia AI konieczne jest udokumentowanie analizy ryzyka, zaś systemy wysokiego ryzyka muszą być zatwierdzone przez Pełnomocnika Rektora ds. AI.

Oprócz tego wypisano konkretne wymogi dla rozwiązań AI, m.in.:

  • dane wrażliwe mogą być przetwarzane w systemach AI posiadające odpowiedni certyfikat bezpieczeństwa;
  • przetwarzanie informacji niejawnych przez systemy AI reguluje organizator systemu niejawnego;
  • możliwość korzystania jedynie z narzędzi, które „nie wykorzystują danych wejściowych do dalszego uczenia się w sposób niekontrolowany" (z pewnymi wyjątkami wymienionymi w dokumencie);
  • zakaz interakcji prywatnych.

Co ważne, zapytania i odpowiedzi mogą być rejestrowane, analizowane i wykorzystywane „przez podmioty trzecie, w tym dostawców tych technologii”.

Czytaj też

Reklama

AI w publikacjach naukowych i relacje student-wykładowca

Dopuszczono wykorzystanie AI m.in. do redagowania tekstu czy tłumaczeń technicznych. Nakazano wskazywanie wykorzystania AI w pracach naukowych.

„Nie powinno się dopuszczać wykorzystania modeli językowych do doboru literatury i cytowań” – stwierdzono w regulaminie.

Poniżej znajduje się kilka ciekawych zapisów dotyczących AI w relacjach studenta i wykładowcy:

Wykorzystanie narzędzi sztucznej inteligencji nie może prowadzić do ograniczenia roli nauczyciela akademickiego w procesie dydaktycznym ani do wdrażania zautomatyzowanych form nadzoru nad studentami, które mogłyby naruszać zasady autonomii akademickiej oraz relacji „mistrz–uczeń".
Regulamin stosowania AI WAT
Studenci muszą być informowani o zastosowaniu AI w procesie dydaktycznym. (...) Każdy student ma prawo odmówić udziału w procesie dydaktycznym opartym wyłącznie na wykorzystaniu AI, który całkowicie zastępuje bezpośrednią interakcję z wykładowcą, bez konsekwencji dla toku studiów.
Regulamin stosowania AI WAT
Nauczyciele akademiccy zobowiązani są do kontroli i oceny wykorzystania AI przez Studentów.
Regulamin stosowania AI WAT

Czytaj też

Reklama

AI w pracach dyplomowych

Autorzy regulaminu postanowili nie udawać, że AI nie istnieje i żaden student nie korzysta z takich rozwiązań, co jest rozsądnym podejściem. Użycie sztucznej inteligencji w pracach dyplomowych musi występować za zgodą promotora, który określa rodzaj wykorzystanych narzędzi oraz sposób oznaczania wygenerowanych treści.

Wymagane jest również podanie nazwy narzędzia i zakresu jego użycia oraz określenie wpływu na pracę. Nakłada się też nowy obowiązek na studentów, mianowicie:

W przypadku pracy dyplomowej, końcowej lub etapowej wytworzonej bez użycia narzędzi AI, obowiązuje oświadczenie: „Oświadczam, że praca została wytworzona samodzielnie i bez wykorzystania narzędzi AI".
Regulamin stosowania AI WAT

Zaznaczono także wyraźnie, że wykorzystanie AI ma jedynie wspomagać tworzenie prac oraz „nie może zastępować procesu twórczego, analitycznego anidecyzyjnego studenta”. Naruszenie regulaminu może skutkować odpowiedzialnością zgodnie ze Statutem WAT.

Co ważne, prace dyplomowe, etapowe i końcowe „mogą być weryfikowane pod kątem nieujawnionego użycia systemów AI za pomocą detektorów AI”. Autor pracy musi poddać się owej procedurze.

Czytaj też

Reklama

Regulamin nie „demonizuje” AI

Zachęcamy do zapoznania się z całością dokumentu, dostępnego na BIP WAT.

Nie potrzebujemy wdrażać AI w każdym aspekcie naszego życia, lecz powinniśmy mieć możliwość rozsądnego korzystania z takich rozwiązań. To dobrze, że dokument nie „demonizuje” AI, lecz pokazuje, że wraz z odpowiednimi regulacjami (np. dotyczących ochrony danych osobowych czy zakazu inwigilacji) jest to narzędzie, które może nam pomóc.

Wiele wskazuje na to, że AI nie zniknie w mierzalnym czasie. Uczmy się z niej dobrze korzystać – nie straszmy, lecz edukujmy o benefitach i zagrożeniach.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

WYCIEKI DANYCH z firm. JAK ZAPOBIEGAĆ wynoszeniu danych przez pracowników?

Materiał sponsorowany

Komentarze

    Reklama