Reklama

CYBERMAGAZYN

#CyberMagazyn: ChatGPT zabierze wam pracę, jeśli nie ma ona dużego znaczenia

Autor. LYCS Architecture / Unsplash

ChatGPT zabierze ludziom pracę – ale tylko tym, którzy wykonują zadania stosunkowo łatwe do automatyzacji, nie wymagające racjonalności i powtarzalne. Tłumaczymy, dlaczego programiści, prawnicy i dziennikarze mogą spać spokojnie.

Reklama

Kiedy jakiś czas temu w sieci pojawiła się informacja, że serwis informacyjno-rozrywkowy BuzzFeed ma zamiar zaprzęgnąć do pracy model ChatGPT wyprodukowany przez firmę OpenAI i zredukować z tego powodu zatrudnienie, w sieci zawrzało.

Reklama

Nic dziwnego – strach przed tym, że sztuczna inteligencja zacznie zabierać nam pracę , jest stary jak opowieści z gatunku science-fiction o świecie rządzonym przez roboty, w którym człowiek skazany jest na nędzę, a wielki kapitał jeszcze szybciej i sprawniej pomnaża swoje zyski, bo w przeciwieństwie do pracowników – algorytmy nie potrzebują odpoczynku , nie domagają się przestrzegania praw człowieka ani praw pracowniczych, a także nie zachodzą w ciążę i nie trzeba za nie płacić ZUS (w tym ostatnim wypadku – jeszcze, bo dyskusja na temat opodatkowania pracy algorytmów i robotów na Zachodzie już trwa).

Sztuczna inteligencja w redakcji

BuzzFeed zapowiedział, że ChatGPT posłuży do „ulepszania quizów" i „personalizowania niektórych treści" na potrzeby odbiorców serwisu. Dziennik „Wall Street Journal" informował o sprawie wskazując, że treść notatki przekazanej przez szefa BuzzFeedu Jonaha Perettiego zapowiadała jednak, że na tym się nie skończy – ChatGPT ma odegrać w tej firmie, podobnie jak sztuczna inteligencjaper se, znacznie większą rolę i w niedalekiej, bo obejmującej jeszcze ten rok przyszłości być stosowana w zadaniach z zakresu edycji i zarządzania operacjami biznesowymi.

Reklama

Sztuczna inteligencja, zdaniem Perettiego, będzie przede wszystkim wspierać proces kreatywny i poprawi jakość oferowanych przez BuzzFeed treści, ludzie natomiast będą skupiać się na dostarczaniu nowych pomysłów, wkładu kulturowego oraz „inspirować zapytania" dla czatbota.

Jak przekazał pracownikom, w ciągu najbliższych piętnastu lat dane oraz algorytmy będą pozwalały „tworzyć, personalizować i animować treści", w dodatku „samodzielnie", a nie tylko zajmować się „kuracją już istniejących materiałów".

Rozdmuchane zwolnienia

BuzzFeed wysławił się w mediach nie tyle zapowiedzią wykorzystania sztucznej inteligencji w pracy redakcyjnej, ile informacją, że zwolni przez to pracowników. To nie do końca prawda.

Firma ma kłopoty finansowe, a w ub. roku postanowiła zredukować swój dział newsowy po to, aby biznes BuzzFeedu znowu przynosił zyski, które nie chcą się pojawiać pomimo wielomilionowych opłat, jakie BuzzFeed pobiera od koncernu Meta za pomoc w tworzeniu treści dla Facebooka i Instagrama.

Po zapowiedziach szefa serwisu, wartość akcji BuzzFeedu wzrosła niemal dwukrotnie i osiągnęła poziom zawrotnych 2,09 dolara za sztukę. Mimo tego, akcje są warte o 75 proc. mniej, niż były w czasie, kiedy firma wchodziła na giełdę.

Zwolnienie pracowników z BuzzFeedu może być zatem błędnie przedstawiane jako konsekwencja wdrożenia sztucznej inteligencji przez firmę – jej szef deklaruje, że pełnoetatowi pracownicy będą mogli dzięki zwolnieniu z nieistotnych zadań pracować lepiej i skupić się na tym, co bardziej wartościowe, kreatywne i rozwijające. Rzeczniczka spółki tłumaczy natomiast, że wdrożenie sztucznej inteligencji nie ma wymiaru strategii redukcji zatrudnienia, a ma stanowić jedynie wspomaganie w osiąganiu lepszych rezultatów. Przy założeniu, że dajemy tym deklaracjom wiarę – nie ma się czego bać. Niepokój jednak u wielu pozostaje.

Czy ChatGPT rzeczywiście zagraża pracownikom?

Odkąd firma OpenAI zaprezentowała słynnego czatbota w listopadzie ub. roku, nie cichną spekulacje o tym, że już wkrótce model ten – podobnie jak i inne tego rodzaju produkty – doprowadzi do utraty pracy przez wiele osób, które dziś zajmują się programowaniem, tworzeniem treści w mediach społecznościowych, redakcją prostych artykułów w serwisach informacyjnych. Ostatecznie wiemy już o stosowaniu algorytmów do tworzenia krótkich depesz w agencjach prasowych (Associated Press), eksperymentował z nimi również serwis technologiczny Cnet.

Choć ChatGPT sprawnie tworzy tekst, a także kod – wobec czego boją się nie tylko dziennikarze, ale i programiści – nie jest w stanie analizować, myśleć kreatywnie i rozwiązywać problemów z ludzką wrażliwością i empatią , a także łączeniem wielu przesłanek w ramach jednego wnioskowania (co niezbędne jest zarówno w dziennikarstwie, jak i w przedstawianych jako zagrożone pracach takich, jak zawody prawnicze czy związane z konsultacjami w różnych dziedzinach).

Duże modele językowe nie są ponadto projektowane po to, aby mówiły prawdę – to my musimy je tego nauczyć, korygując ich pracę – jak to ma miejsce w przypadku czatbotów stosowanych w produktach takich, jak Bing czy Bard .

Wszystko zależy od naszych decyzji

Warto – na potrzeby tego tekstu – postawić kontrowersyjną tezę o tym, że ChatGPT i inne duże modele językowe mogą wspomagać prace związane z tworzeniem treści lub kodu, a także kompilowaniem analiz.

ChatGPT może ponadto przekładać się na tworzenie nowych miejsc pracy – dla osób, które będą specjalizowały się w „zarządzaniu" pracą tego narzędzia tak, aby przekładała się na jak najkorzystniejsze rezultaty dla stosujących to rozwiązanie w swoim biznesie firm.

Ostatecznie, to, jak potoczą się losy pracowników, zależy od mądrości kadr zarządzających w firmach. Technologie są tak etyczne, jak osoby je stosujące – nawet z najbardziej niewinnego narzędzia (do których ChatGPT jednak z licznych powodów się nie zalicza – o czym tutaj ) można uczynić broń, zmilitaryzować je, a także wykorzystać przeciwko innym, choćby w ramach manipulacji, dezinformowania czy naruszania praw autorskich .

Zarządzanie wdrożeniami narzędzi takich, jak ChatGPT i inne modele może pomóc zwiększyć produktywność firm, pracowników i poprawić jakość pracy, z którą mają oni do czynienia na co dzień, usuwając z list obowiązków zadania nudne, powtarzalne i z łatwością automatyzowalne.

Może też doprowadzić do katastrofy – czy tak się stanie, zależy od nas samych i od regulacji, które powstaną po to, aby ograniczyć naszą ludzką przywarę – skłonność do chodzenia na skróty i dokonywania nadużyć, które dają zysk jedynie w krótkiej perspektywie.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze

    Reklama