Technologie
2 dolary za godzinę. ChatGPT doskonalił się dzięki traumatycznej pracy Kenijczyków
ChatGPT – oparty o sztuczną inteligencję czatbot firmy OpenAI zadziwił wszystkich pod koniec ubiegłego roku swoją doskonałością w imitowaniu ludzkiej pracy z tekstem. Jak wynika z najnowszych informacji, osiągnął ją dzięki niskopłatnej i wręcz niewolniczej pracy Kenijczyków.
Pracownicy z Kenii mieli zarabiać nawet mniej niż 2 dolary za godzinę, pracując nad udoskonalaniem algorytmu ChatGPT i czuwając, aby sztuczna inteligencja nie była toksyczna – wynika z dziennikarskiego śledztwa przeprowadzonego przez magazyn „Time" .
Ich praca była kluczowa dla sukcesu ChatGPT, który został okrzyknięty hitem ubiegłego roku i przełomowym zjawiskiem udowadniającym, że sztuczna inteligencja faktycznie może konkurować z ludzką pracą (czy nam się to podoba, czy nie).
Czytaj też
Jaka jest cena doskonałości?
Jak pisze „Time", zanim aplikacja osiągnęła znany z internetowych doniesień poziom doskonałości w generowaniu tekstów zbliżonych jakościowo do ludzkiej pracy, zdarzało jej się również produkować treści przemocowe, seksistowskie i rasistowskie – wszystko dlatego, że model ChatGPT był szkolony na tekstach, które po prostu pobrano z otwartych źródeł w internecie.
To właśnie dzięki ogromnym zasobom danych, które wykorzystano do szkolenia algorytmu, ChatGPT posiada zadziwiające „zdolności" językowe. Trudno jednak z tak ogromnego zbioru danych wyłuskać wszystko, czego sztuczna inteligencja nie powinna się uczyć – a teksty, które posłużyły do jej trenowania - pochodziły, jak wspomina „Time" - również z tych zakątków internetu, do których lepiej nie zaglądać.
Ludzkie wsparcie algorytmów
OpenAI – twórcy ChatGPT – doskonale wiedzieli, że nie poradzą sobie z problemem szkolenia algorytmu w zakresie szkodliwych czy nieodpowiednich treści inaczej, niż przez wykorzystanie ludzkiej pracy.
Właśnie w ten sposób podwykonawcą usług moderacji treści czatbota została firma outsourcingowa w Kenii, z którą OpenAI rozpoczęło współpracę w listopadzie 2021 roku, na długo, zanim usłyszeliśmy o tym algorytmie w mainstreamie.
Pracownicy, którym często płacono mniej niż dwa dolary za godzinę pracy, dostawali do przejrzenia i oznaczenia jako szkodliwe treści pochodzące z najmroczniejszych zakamarków internetu, zawierające niekiedy drastyczne opisy nadużyć seksualnych wobec dzieci, gwałtów, morderstw, samobójstw, tortur i kazirodztwa – pisze „Time".
Firma Sama, która dostarczyła pracowników spółce OpenAI, specjalizuje się w pozyskiwaniu podwykonawców z krajów takich jak Kenia, Uganda i Indie – a z jej usług korzystają giganci Doliny Krzemowej, bazując na taniej pracy i szerokiej jej dostępności.
Sama chwali się natomiast, że pomaga budować „etyczną" sztuczną inteligencję i wydostała ze skrajnego ubóstwa już ponad 50 tys. osób.
Czytaj też
Niesamodzielność sztucznej inteligencji
Autorzy reportażu podkreślają, że historia o wykorzystywaniu taniej siły roboczej z Kenii podkreśla najlepiej strzeżoną tajemnicę firm zajmujących się dziś sztuczną inteligencją – w gruncie rzeczy jest ona kompletnie niesamodzielna, jeśli wcześniej nie zostanie wsparta ludzką pracą, mającą zabezpieczyć systemy AI przed wejściem na rynek.
Algorytmy nie uczą się samodzielnie – wymagają do tego ludzkiej pracy, która wyeliminuje błędy i pozwoli na uniknięcie katastrofy wizerunkowej dla twórców danego modelu w przypadku, gdyby ten zaczął obrażać swoich użytkowników.
Firma OpenAI, podobnie jak i inne spółki tego rodzaju, nie chwali się wcale współpracą ze spółką Sama, której pracownicy tak mało zarabiali moderując ChatGPT. Nie wiadomo też, czy OpenAI nie współpracowało z innymi podmiotami – prace nad modelami sztucznej inteligencji są dziś bardzo nietransparentne.
Przyparci do ściany twórcy ChatGPT przyznali się, że istotnie korzystali z usług firmy dostarczającej jej podwykonawców z Kenii – i oczywiście wskazali, że wszystko to dla udoskonalania ich produktu.
„Naszą misją jest zapewnienie korzyści ze sztucznej inteligencji dla całej ludzkości i ciężko pracujemy, aby budować stabilne, bezpieczne i użyteczne systemy AI, w których ograniczone są szkodliwe treści oraz stronniczość" – powiedział cytowany przez „Time" przedstawiciel OpenAI.
„Klasyfikacja i filtrowanie szkodliwych treści to konieczny krok na rzecz minimalizacji treści przemocowych i seksualnych, zawartych w danych służących do szkolenia, a także w tworzeniu narzędzi, które mają takie szkodliwe materiały wykrywać" – dodał.
Czytaj też
Tortury
„Time" rozmawiał z jedną z osób, które pracując dla firmy Sama wykonywały niskopłatną pracę dla OpenAI. Osoba ta powiedziała, że po godzinach spędzonych na czytaniu i oznaczaniu fragmentów tekstów przysłanych przez OpenAI dręczona była przez natrętnie powracające wspomnienia tego, co znajdowało się w moderowanych treściach; była to bardzo drastycznie przedstawione zachowania zoofilskie, których – jak wynika z opisu – świadkami były dzieci.
„To były tortury" – mówiła w rozmowie z magazynem osoba pracująca dla OpenAI. „Czytasz przez cały tydzień rzeczy podobne do tych właśnie i do piątku jesteś cały rozedrgany" – dodała.
Jak podają autorzy reportażu, traumatyczne doświadczenia pracowników firmy Sama doprowadziły do skrócenia kontraktu z OpenAI i zakończenia go w lutym 2022 roku – o osiem miesięcy wcześniej, niż planowano.
OpenAI miała podpisać z firmą Sama trzy kontrakty warte łącznie ok. 200 tys. dolarów. Pracowało przy nich kilkadziesiąt osób podzielonych na trzy zespoły. Do obowiązków pracownika należało przeczytanie ok. 150-250 próbek tekstu w ciągu dziewięciogodzinnej zmiany. Próbki miały różną długość – od 100 do 1000 słów, a pracownicy w zależności od doświadczenia i produktywności wynagradzani byli sumami rzędu 1,3 dolara do 2 dolarów za godzinę.
W Kenii nie ma przepisów gwarantujących pracownikom płacę minimalną.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
kuba1777
Czyli zarabiali mniej więcej tyle ile wynosi aktualnie minimalna stawka godzinowa w Bułgarii (będącej w UE), niesamowity skandal!