Technologie

Użytkownicy platformy Koko nie wiedzieli, że rozmawiają z algorytmem. Myśleli, że to człowiek

Fot. Kristina Tripkovic / Unsplash

Platforma Koko przedstawia się jako organizacja non-profit, której celem jest wspieranie osób w kryzysie zdrowia psychicznego. Jej twórca Rob Morris pochwalił się ostatnio na Twitterze, że przeprowadził eksperyment na użytkownikach z udziałem AI. Problem polega na tym, że nikt poza nim o tym nie wiedział.

Twórca platformy Koko – Rob Morris – to człowiek, który według serwisu Fast Company ma wykształcenie w dziedzinach nauk społecznych i psychologii, jednak na drodze do kariery przeszkodą był brak umiejętności kodowania.

W rozmowach z mediami Morris opowiada często, że podczas studiów w słynnym Massachussets Institute of Technology cierpiał na depresję, co uniemożliwiło mu utrzymanie równego tempa nauki i dobrych wyników – do tego stopnia, że w końcu musiał wziąć urlop zdrowotny.

Po powrocie z niego nadrabiał zaległości, m.in. korzystając ze słynnej wśród programistów i innych osób związanych z rozwiązywaniem problemów w IT strony Stack Overflow (niech rzuci kamieniem ten, kto nigdy nie przekleił stamtąd choćby kawałka kodu). Snując swoją opowieść w rozmowach z dziennikarzami, Morris twierdzi, że to właśnie wtedy zadał sobie pytanie, czy czegoś podobnego – sprofilowanej na bezpłatną pomoc innym osobom platformy – nie dałoby się stworzyć w dziedzinie walki z problemami zdrowia psychicznego.

Rosnąca popularność cyfrowych terapii

Nie jest żadną tajemnicą, że to głównie dzięki pandemii koronawirusa gwałtownie wzrosła popularność cyfrowych narzędzi, które mają wspomagać nas w walce o dobrostan psychiczny. Boom na wszelkiego rodzaju aplikacje, które mają wspierać użytkowników w walce ze stanami depresyjnymi, zaburzeniami lękowymi czy innymi problemami, zaczął się jednak nieco wcześniej – jego pierwsze symptomy widać było w 2017 roku, kiedy szturmem na smartfony użytkowników przede wszystkim w świecie anglosaskim zaczęły wdzierać się aplikacje takie jak np. Calm, służące do obserwacji własnego samopoczucia mentalnego i medytacji. Zaraz za nimi wkroczyły elektroniczne dzienniki samopoczucia, gromadzące przy okazji wiele wrażliwych danych, co przekłada się na niemałe zagrożenie dla prywatności.

Pandemia to wisienka na torcie i ostateczne potwierdzenie trendu – smartfon po raz kolejny dał nam obietnicę usprawnienia procesów do tej pory zarezerwowanych dla świata offline (kontakt z terapeutą czy też terapia w ogóle), przez połączenie z internetem i aplikacje oferujące rozwiązanie każdego problemu.

To duża i bogata nisza. Według cytowanych przez Fast Company danych z 2019 roku, 80 proc. nastolatków poszukiwało pomocy w problemach związanych ze zdrowiem psychicznym w internecie. Koko, które powstało w 2015 roku, stało się doskonałą odpowiedzią na te problemy.

Czytaj też

Krótka historia Koko

Morris zaczął prace nad platformą w 2015 roku przy wsparciu swoich współpracowników – Kareema Kouddousa i Frasera Keltona, którzy pomogli mu zebrać wsparcie od inwestorów i fundusze niezbędne na start. Zbudowali wspólnie również czatbota – Kokobota, który w oparciu o sztuczną inteligencję moderował konweresacje użytkowników platformy i pomagał identyfikować osoby w kryzysie zdrowia psychicznego.

W 2018 roku platforma została przejęta przez AirBnB, z którym również związany był Rob Morris. Dwa lata później – ze względu na wspomnianą wcześniej, rosnącą popularność rozwiązań cyfrowych dla zdrowia psychicznego – pomysł ekspansji platformy Koko odrodził się, jednak jej twórcy postanowili przekształcić ją w organizację non-profit.

Koko jest zatem platformą, na której można pozyskać numer do infolinii pomagającej w kryzysie zdrowia psychicznego, ale można też wysłać wiadomość do innych użytkowników serwisu, w której – kiedy opiszemy swoje doświadczenia – możemy liczyć na to, że odpowie nam empatycznie inna osoba korzystająca z tej usługi.

Według Morrisa, „napisanie krótkiej wiadomości z nadzieją, że ktoś nam pomoże, jest tym, co naprawdę potrafi odciągnąć ludzi" – np. od pomysłu samookaleczania się lub myśli samobójczych.

Czytaj też

Eksperyment

W ostatnich dniach na swoim koncie w serwisie Twitter, Rob Morris zamieścił kontrowersyjny wątek. Poinformował w nim, że oto przeprowadził na platformie Koko eksperyment (używając dokładnie tego słowa).

Otóż, na wiadomości użytkowników zaczął odpowiadać algorytm GPT-3, model wykorzystujący głębokie uczenie w celu generowania tekstów imitujących treści napisane przez człowieka. GPT-3 działa w oparciu o generację tekstu na podstawie danych wyjściowych, które „informują" go, o czym ma być stworzona przez ten model treść. Warto przy tym wspomnieć, że tekst generowany przez GPT-3 często jest tak wysokiej jakości, że ciężko odróżnić go od treści, które mógłby napisać człowiek.

To właśnie stało się podstawą do eksperymentu Morrisona, który postanowił „zatrudnić" model do odpowiadania na wiadomości osób korzystających z Koko. W wyniku eksperymentu, GPT-3 odpowiedział ok. 4 tys. użytkowników, pośród których mogło znajdować się wiele osób nieletnich. Wszystkie osoby, którym algorytm odpisał na wiadomości, były przekonane, że rozmawiają z człowiekiem – żadna nie miała świadomości, że odpowiada im sztuczna inteligencja.

Morris w swoich tweetach zastrzegł, że wiadomości generowane przez AI były rewidowane przez ludzi. Jak dodał, odpowiedzi, których udzielał GPT-3, były oceniane przez użytkowników Koko wyżej, niż te pisane przez inne osoby. Zwiększyła się również szybkość obsługi zgłoszeń na platformie.

Według twórcy Koko, eksperyment musiał być szybko zakończony – nie, nie ze względów etycznych. Otóż, w końcu użytkownicy platformy dowiedzieli się, że odpowiedzi są redagowane przez sztuczną inteligencję i, jak napisał Morris, „to nie pracowało".

„Zasymulowana empatia jest dziwna, pusta" – napisał w jednym ze swoich tweetów i zaznaczył, że wypowiedzi bota w rodzaju „rozumiem", albo „współodczuwam" brzmiały dziwnie, bo sztuczna inteligencja nie może przeżywać tego co my. Morris jednocześnie pozwolił sobie na spekulację, że w przyszłości maszyny prawdopodobnie będą mogły pokonać przeszkodę, którą stanowi realny brak emocji.

Całość eksperymentu na Koko wzbudziła jednak spore poruszenie i kontrowersje.

Czytaj też

Brak etyki

O opinię zapytaliśmy psycholożkę i terapeutkę Monikę Kotlarek, autorkę książek o tematyce psychologicznej i strony Psycholog Pisze .

„Eksperyment na ludziach bez ich jasnej zgody jest niezgodny z etyką" – mówi ekspertka, dodając, że wątpliwe etycznie jest również testowanie tego rodzaju rozwiązań na żywym organizmie platformy i jej użytkowników.

Kotlarek, zapytana o to, czy sztuczna inteligencja może dziś stanowić wsparcie w terapiach i pomocy osobom w kryzysie zdrowia psychicznego, oceniła, że „AI przy zdrowiu psychicznym obecnie nie ma racji bytu. W pomaganiu i terapii lecząca jest przede wszystkim relacja pacjent - terapeuta, a dopiero potem ewentualne techniki" – podkreśla psycholożka.

Jak dodaje, „z AI nie zbudujemy relacji opartej na empatii, pełnym zaufaniu. AI nie zastąpi specjalisty zdrowia psychicznego, choćby ze względu na ludzkie doświadczenia i emocje" – mówi.

Według terapeutki, w przypadku Koko mocno widoczna jest sztuczność reakcji algorytmu, opisywana przez Morrisa w jego wątku na Twitterze, gdy AI odpowiada: „rozumiem". „AI nie rozumie. To algorytm każe jej tak odpowiadać" – mówi Monika Kotlarek.

W rozmowie z nami psycholożka podkreśla jednak, że „aplikacje pomocowe będą powstawać jak grzyby po deszczu, niestety". „Nic nie zastąpi kontaktu z drugim człowiekiem. Nawet online, ale jednak kontaktu" – stwierdza.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]

Komentarze

    Czytaj także