Reklama

Technologie

ChatGPT w sądownictwie? To już się dzieje

Jaki wyrok zapadł w tej sprawie?
Jaki wyrok zapadł w tej sprawie?
Autor. Tingey Injury Law Firm/ Unsplash/ Domena publiczna

Kolumbijski sędzia twierdzi, że podejmując decyzję w czasie jednej z rozpraw, użył narzędzia sztucznej inteligencji, które w ostatnim czasie nie schodzi z nagłówków mediów technologicznych na całym świecie. Chodzi o ChatGPT.

Reklama

Juan Manuel Padilla miał przyznać, że użył narzędzia AI, by dowiedzieć się, jakie przepisy obowiązują, jeśli chodzi o finansowanie leczenia autystycznego chłopca – podaje „The Guardian”. Zapytał ChatGPT czy ubezpieczenie powinno pokrywać wszystkie koszty leczenia, ponieważ rodziców dziecka nie było na nie stać.

Reklama

Włączenie chatbota w proces podejmowania decyzji budzi kontrowersje, łącznie z zaangażowaniem go w sformułowanie orzeczenia.

Chatbot miał zostać zapytany przez sędziego między innymi o to, czy „osoba niepełnoletnia z autyzmem jest zwolniona z płacenia opłat za terapię?”. Odpowiedź ChatGPT miała być tożsama z decyzją sędziego: „Tak, to prawda. Zgodnie z przepisami obowiązującymi w Kolumbii nieletni z rozpoznaniem autyzmu są zwolnieni z opłat za terapie”.

Reklama

Czytaj też

Etyka a sztuczna inteligencja

Sprawa wywołała niemałe kontrowersje z tego względu, że ChatGPT wciąż popełnia bardzo wiele pomyłek, a użytkownicy wielokrotnie udowadniali, że w bardzo prosty sposób są w stanie wprowadzić w błąd generator odpowiedzi, bazujący na AI. Drugą kwestią – i przede wszystkim nadrzędną – jest kwestia etyki: czy technologia może podejmować decyzje bezpośrednio wpływające na życie (w tym przypadku na aspekt finansowy i pokrycie kosztów leczenia) człowieka?

Wykorzystanie sztucznej inteligencji w prawie to jedno. Inne wzbudzające wątpliwości aspekty to m.in. stosowanie oprogramowania należącego do OpenAI m.in. w szkołach. Nauczyciele obawiają się, że uczniowie nie będą już tworzyli prac samodzielnie, a będą prosili AI o przygotowanie im gotowych odpowiedzi.

Jak podaje „The Guardian”, sędzia bronił swojej decyzji sugerując, że dzięki temu „uda się zwiększyć wydajność systemu prawnego Kolumbii”, który charakteryzuje się „przeładowaniem”. Dla poparcia swojej decyzji miał wykorzystywać precedensy z poprzednich orzeczeń. Zdaniem Padilli, ChatGPT i inne tego typu narzędzia mogą być przydatne do „ułatwiania redagowania tekstów”, ale „nie w celu zastąpienia” sędziów.

Czytaj też

ChatGPT o swoich „prawniczych” umiejętnościach z dystansem

Co ciekawe, redakcja zadała pytanie ChatGPT o to, jak widzi swoje umiejętności w zakresie wykorzystania w wymiarze sprawiedliwości.

„Sędziowie nie powinni używać ChatGPT podczas orzekania w sprawach sądowych. Nie zastępuje on wiedzy, doświadczenia i osądu ludzkiego sędziego” – miał odpowiedzieć chatbot na pytanie Guardiana. „Dziennikarze powinni zachować ostrożność, używając cytatów generowanych przez ChatGPT w swoich artykułach” – dodał bot.

„Powinniśmy uregulować wykorzystanie narzędzi takich jak ChatGPT” – stwierdził Tomasz Mackiewicz, kierownik Centrum Badań i Rozwoju Nowoczesnych Technologii w rozmowie z CyberDefence24.pl. Dlaczego to ważne? O tym w poniższym materiale.

/NB

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze