- WIADOMOŚCI
Sztuczna inteligencja w sektorze prawniczym. Między innowacją a ryzykiem systemowym
Debata o sztucznej inteligencji w sektorze prawnym najczęściej koncentruje się na pytaniu, czy AI zastąpi prawników. Z perspektywy bezpieczeństwa państwa i odporności systemów instytucjonalnych znacznie istotniejsze jest jednak inne pytanie: w jaki sposób prawnicy już dziś korzystają z AI oraz jakie ryzyka – technologiczne, organizacyjne i regulacyjne – mogą z tego wynikać.
Autor. CyberDefence24/Canva
Autorka: dr Karolina Grenda, doktor nauk prawnych, członek Rady Nowych Technologii i Cyfryzacji przy Prezydencie RP, członek Rady Fundacji SET
W opublikowanym przez Fundację SET we współpracy z firmą Logit raporcie „Cyfrowa transformacja usług prawniczych. Rola i znaczenie sztucznej inteligencji”, przeanalizowaliśmy realny poziom wykorzystania AI wśród polskich adwokatów i radców prawnych. Wyniki pokazują, że mamy do czynienia nie z futurystycznym scenariuszem, lecz z procesem, który już trwa – i który z punktu widzenia bezpieczeństwa wymaga pilnej refleksji.
85 proc. rynku „w orbicie AI”
Z przeprowadzonego badania wynika, że 52,5% respondentów już korzysta z narzędzi opartych na sztucznej inteligencji (w tym 22,5% intensywnie), a kolejne 32,5% planuje ich wdrożenie lub testy w najbliższym czasie.
Oznacza to, że łącznie 85% badanych znajduje się w tzw. orbicie AI – korzysta z niej, wdraża ją lub aktywnie rozważa jej wykorzystanie.
To ważny moment. AI przestaje być eksperymentem technologicznym, a staje się elementem codziennej infrastruktury organizującej pracę prawników. Jednocześnie jednak proces ten przebiega w sposób zdecentralizowany i często nieskoordynowany.
Najczęstsze zastosowania AI w kancelariach mają charakter operacyjny:
- inteligentne wyszukiwanie informacji prawnych (70%),
- analiza dokumentów (51,7%),
- automatyczne tłumaczenia (40%),
- automatyzacja tworzenia dokumentów (38,3%).
Z perspektywy efektywności są to obszary naturalne. Z perspektywy bezpieczeństwa – to mogą być także obszary wrażliwe. Każde z tych zastosowań może wiązać się bowiem z przetwarzaniem danych o istotnym znaczeniu.
Shadow AI jako wyzwanie systemowe
W tym kontekście szczególną uwagę zwraca to, iż jednym z najbardziej istotnych wniosków naszego badania – doniosłym zwłaszcza z perspektywy systemowego bezpieczeństwa – jest struktura wykorzystywanych narzędzi.
Aż 53,6% respondentów korzysta z rozwiązań otwartych lub darmowych. To zgodne z trendami wynikającymi ze wszelkich badań globalnych, w których widoczne jest po pierwsze, ustępowanie pola przez dedykowane systemy korporacyjne rozwiązaniom generatywnym, ogólnodostępnym, a po drugie, wykorzystywanie tych narzędzie indywidualnie przez poszczególnych pracowników, bez ustandaryzowanego wdrożenia w zatrudniającej ich organizacji.
Nasze badania potwierdzają, że 36,3% respondentów nie zna żadnych zaawansowanych, zintegrowanych systemów AI dedykowanych prawnikom dostępnych na polskim rynku. Oznacza to dominację modelu nieformalnego, znanego z sektora korporacyjnego: technologia jest używana, ale poza pełną kontrolą organizacyjną i bez kompleksowej analizy ryzyka.
Z perspektywy bezpieczeństwa rodzi to pytania dotyczące umów powierzenia przetwarzania danych (DPA), lokalizacji i dalszego wykorzystania danych, ryzyka niezamierzonego ujawnienia informacji objętych tajemnicą zawodową, czy wreszcie braku spójnych procedur weryfikacji wyników generowanych przez AI.
Świadomość ryzyka jest wysoka
Co istotne, środowisko prawnicze nie wykazuje przy tym technologicznego entuzjazmu oderwanego od realiów.
Najsilniejsze obawy respondentów koncentrują się wokół bezpieczeństwa i poufności danych klientów (81%), ryzyka błędów w analizach przeprowadzanych przez AI (75,9%) oraz odpowiedzialności zawodowej za skutki takich błędów (61,3%).
Oznacza to, że barierą nie jest brak świadomości zagrożeń. Przeciwnie – obawy te są bardzo wyraźne. Problem polega raczej na tym, że adopcja AI postępuje szybciej niż budowa systemowych mechanizmów zarządzania ryzykiem.
Jednocześnie 78,7% badanych spodziewa się pozytywnego lub umiarkowanie pozytywnego wpływu AI na branżę w perspektywie trzech lat. Mamy więc do czynienia ze współistnieniem świadomości ryzyka z przekonaniem o nieuchronności i potencjalnych korzyściach wynikających z powszechnie dostępnej i coraz bardziej intensywnie wykorzystywanej technologii.
Regulacja zamiast zakazu
Na tym tle istotne znaczenie mają wytyczne Krajowej Izby Radców Prawnych, które nie zakazują korzystania z AI, lecz wskazują warunki jej bezpiecznego użycia – w tym obowiązek zachowania tajemnicy zawodowej, weryfikacji treści generowanych przez system oraz pełnej odpowiedzialności prawnika za końcowy rezultat.
To kierunek racjonalny z punktu widzenia bezpieczeństwa systemowego. Zakaz nie zatrzymałby procesu – przesunąłby go jedynie do sfery całkowicie nieformalnej. Regulacja i standardy minimalne zwiększają natomiast szansę na budowę kontrolowanego modelu wdrażania AI.
Punkt zwrotny
Polski rynek usług prawniczych znajduje się dziś w punkcie zwrotnym. AI staje się elementem codziennej pracy, ale jej integracja przebiega w warunkach niskiej znajomości profesjonalnych, dedykowanych systemów, dominacji narzędzi ogólnych oraz braku jednolitych standardów organizacyjnych w kancelariach.
Nie ma przy tym wątpliwości, że AI w sektorze prawniczym nie jest już tematem przyszłości, lecz elementem infrastruktury informacyjnej państwa – choć często funkcjonującym w sposób rozproszony i półformalny. Największym zagrożeniem nie jest w tym kontekście sama technologia, lecz luka pomiędzy jej wykorzystaniem a poziomem dojrzałości organizacyjnej.
Jeśli sztuczna inteligencja ma stać się narzędziem zwiększającym efektywność i odporność systemu prawnego, musi być wdrażana w sposób kontrolowany – z jasnymi zasadami, audytem bezpieczeństwa i realnym zarządzaniem ryzykiem. Automatyzacja pracy jest nieunikniona. Automatyzacja odpowiedzialności – pozostaje i powinna pozostać wykluczona.
Zobacz też




Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Cyfrowy Senior. Jak walczy się z oszustami?