Technologie

2 dolary za godzinę. ChatGPT doskonalił się dzięki traumatycznej pracy Kenijczyków

Fot. dylan nolte / Unsplash

ChatGPT – oparty o sztuczną inteligencję czatbot firmy OpenAI zadziwił wszystkich pod koniec ubiegłego roku swoją doskonałością w imitowaniu ludzkiej pracy z tekstem. Jak wynika z najnowszych informacji, osiągnął ją dzięki niskopłatnej i wręcz niewolniczej pracy Kenijczyków.

Pracownicy z Kenii mieli zarabiać nawet mniej niż 2 dolary za godzinę, pracując nad udoskonalaniem algorytmu ChatGPT i czuwając, aby sztuczna inteligencja nie była toksyczna – wynika z dziennikarskiego śledztwa przeprowadzonego przez magazyn „Time" .

Ich praca była kluczowa dla sukcesu ChatGPT, który został okrzyknięty hitem ubiegłego roku i przełomowym zjawiskiem udowadniającym, że sztuczna inteligencja faktycznie może konkurować z ludzką pracą (czy nam się to podoba, czy nie).

Czytaj też

Jaka jest cena doskonałości?

Jak pisze „Time", zanim aplikacja osiągnęła znany z internetowych doniesień poziom doskonałości w generowaniu tekstów zbliżonych jakościowo do ludzkiej pracy, zdarzało jej się również produkować treści przemocowe, seksistowskie i rasistowskie – wszystko dlatego, że model ChatGPT był szkolony na tekstach, które po prostu pobrano z otwartych źródeł w internecie.

To właśnie dzięki ogromnym zasobom danych, które wykorzystano do szkolenia algorytmu, ChatGPT posiada zadziwiające „zdolności" językowe. Trudno jednak z tak ogromnego zbioru danych wyłuskać wszystko, czego sztuczna inteligencja nie powinna się uczyć – a teksty, które posłużyły do jej trenowania - pochodziły, jak wspomina „Time" - również z tych zakątków internetu, do których lepiej nie zaglądać.

Ludzkie wsparcie algorytmów

OpenAI – twórcy ChatGPT – doskonale wiedzieli, że nie poradzą sobie z problemem szkolenia algorytmu w zakresie szkodliwych czy nieodpowiednich treści inaczej, niż przez wykorzystanie ludzkiej pracy.

Właśnie w ten sposób podwykonawcą usług moderacji treści czatbota została firma outsourcingowa w Kenii, z którą OpenAI rozpoczęło współpracę w listopadzie 2021 roku, na długo, zanim usłyszeliśmy o tym algorytmie w mainstreamie.

Pracownicy, którym często płacono mniej niż dwa dolary za godzinę pracy, dostawali do przejrzenia i oznaczenia jako szkodliwe treści pochodzące z najmroczniejszych zakamarków internetu, zawierające niekiedy drastyczne opisy nadużyć seksualnych wobec dzieci, gwałtów, morderstw, samobójstw, tortur i kazirodztwa – pisze „Time".

Firma Sama, która dostarczyła pracowników spółce OpenAI, specjalizuje się w pozyskiwaniu podwykonawców z krajów takich jak Kenia, Uganda i Indie – a z jej usług korzystają giganci Doliny Krzemowej, bazując na taniej pracy i szerokiej jej dostępności.

Sama chwali się natomiast, że pomaga budować „etyczną" sztuczną inteligencję i wydostała ze skrajnego ubóstwa już ponad 50 tys. osób.

Czytaj też

Niesamodzielność sztucznej inteligencji

Autorzy reportażu podkreślają, że historia o wykorzystywaniu taniej siły roboczej z Kenii podkreśla najlepiej strzeżoną tajemnicę firm zajmujących się dziś sztuczną inteligencją – w gruncie rzeczy jest ona kompletnie niesamodzielna, jeśli wcześniej nie zostanie wsparta ludzką pracą, mającą zabezpieczyć systemy AI przed wejściem na rynek.

Algorytmy nie uczą się samodzielnie – wymagają do tego ludzkiej pracy, która wyeliminuje błędy i pozwoli na uniknięcie katastrofy wizerunkowej dla twórców danego modelu w przypadku, gdyby ten zaczął obrażać swoich użytkowników.

Firma OpenAI, podobnie jak i inne spółki tego rodzaju, nie chwali się wcale współpracą ze spółką Sama, której pracownicy tak mało zarabiali moderując ChatGPT. Nie wiadomo też, czy OpenAI nie współpracowało z innymi podmiotami – prace nad modelami sztucznej inteligencji są dziś bardzo nietransparentne.

Przyparci do ściany twórcy ChatGPT przyznali się, że istotnie korzystali z usług firmy dostarczającej jej podwykonawców z Kenii – i oczywiście wskazali, że wszystko to dla udoskonalania ich produktu.

„Naszą misją jest zapewnienie korzyści ze sztucznej inteligencji dla całej ludzkości i ciężko pracujemy, aby budować stabilne, bezpieczne i użyteczne systemy AI, w których ograniczone są szkodliwe treści oraz stronniczość" – powiedział cytowany przez „Time" przedstawiciel OpenAI.

„Klasyfikacja i filtrowanie szkodliwych treści to konieczny krok na rzecz minimalizacji treści przemocowych i seksualnych, zawartych w danych służących do szkolenia, a także w tworzeniu narzędzi, które mają takie szkodliwe materiały wykrywać" – dodał.

Czytaj też

Tortury

„Time" rozmawiał z jedną z osób, które pracując dla firmy Sama wykonywały niskopłatną pracę dla OpenAI. Osoba ta powiedziała, że po godzinach spędzonych na czytaniu i oznaczaniu fragmentów tekstów przysłanych przez OpenAI dręczona była przez natrętnie powracające wspomnienia tego, co znajdowało się w moderowanych treściach; była to bardzo drastycznie przedstawione zachowania zoofilskie, których – jak wynika z opisu – świadkami były dzieci.

„To były tortury" – mówiła w rozmowie z magazynem osoba pracująca dla OpenAI. „Czytasz przez cały tydzień rzeczy podobne do tych właśnie i do piątku jesteś cały rozedrgany" – dodała.

Jak podają autorzy reportażu, traumatyczne doświadczenia pracowników firmy Sama doprowadziły do skrócenia kontraktu z OpenAI i zakończenia go w lutym 2022 roku – o osiem miesięcy wcześniej, niż planowano.

OpenAI miała podpisać z firmą Sama trzy kontrakty warte łącznie ok. 200 tys. dolarów. Pracowało przy nich kilkadziesiąt osób podzielonych na trzy zespoły. Do obowiązków pracownika należało przeczytanie ok. 150-250 próbek tekstu w ciągu dziewięciogodzinnej zmiany. Próbki miały różną długość – od 100 do 1000 słów, a pracownicy w zależności od doświadczenia i produktywności wynagradzani byli sumami rzędu 1,3 dolara do 2 dolarów za godzinę.

W Kenii nie ma przepisów gwarantujących pracownikom płacę minimalną.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]

Komentarze

    Czytaj także