Technologie
Sztuczna inteligencja w biznesie. Najważniejszy jest człowiek
Autorzy raportu „Generatywne AI w biznesie” przestrzegają przed bezrefleksyjnym wdrażaniem rozwiązań AI w każdej organizacji. Może to skutkować wyciekiem danych, rozpowszechnieniem fake newsów, a w najgorszym wariancie pozwem, np. o naruszenie praw autorskich albo dyskryminację. Wyniki raportu komentuje Maciej Chojnowski, dyrektor programowy i współtwórca Centrum Etyki Technologii Instytutu Humanites.
Wprowadzenie narzędzi opartych o GenAI do firmy ma wiele zalet. Maszyna może przejąć najbardziej rutynowe zadania i znacznie skróci się czas ich wykonywania. Dzięki temu pracownicy mogą przejąć więcej obowiązków i będą bardziej produktywni.
Badania mówią o wzroście wydajności pracy dzięki sztucznej inteligencji od 0,1 do 0,6 proc. rocznie. To z kolei ma przynieść światowej gospodarce od 2,6 do 4,4 bln dolarów, w zależności od branży.
Jednak autorzy raportu przestrzegają przed bezrefleksyjnym wdrażaniem rozwiązań AI w każdej organizacji.
Czytaj też
Odpowiedzialność zawsze spoczywa na człowieku
Jak czytamy w raporcie, proces wprowadzania AI do organizacji powinien skupiać się nie tylko na optymalizacji zysków, a przede wszystkim na nauce współpracy człowieka z maszyną.
Należy pamiętać, że to do człowieka należy ostateczna decyzja, czy skorzysta z wygenerowanych danych. To on poniesie odpowiedzialność w przypadku naruszenia cudzych praw. Na użytkownikach chatbotów AI spoczywa też odpowiedzialność etyczna.
„Wedle UE sztuczna inteligencja made in Europe ma być produktem konkurencyjnym dzięki zapewnieniu wysokich standardów etycznych. Dlatego rachunek opłacalności związany z wprowadzaniem AI w organizacji musi oprócz kwestii finansowych uwzględniać także np. dobrostan społeczny czy środowiskowy” - zauważa Maciej Chojnowski, jeden z autorów raportu w rozmowie z CyberDefence24.
Czytaj też
Jak chronić się przed pozwem?
Przy biznesowym wykorzystaniu AI jest duże ryzyko naruszenia praw autorskich, bo nie wiemy, z jakich baz danych korzysta narzędzie. Przykładowo niedawno wyszło na jaw, że OpenAI nielegalnie używało nagrań z YouTube do trenowania ChatGPT-4, o czym pisaliśmy w CyberDefence24.
Jednak to na firmie, która wdraża rozwiązania AI, spoczywa odpowiedzialność za ewentualny plagiat.
Jak można ochronić się przed pozwem? Autorzy raportu radzą traktować odpowiedzi modeli generatywnych jak asystenta, podpowiedź, źródło pomysłu. Nie należy kopiować jeden do jednego utworów, a przetwarzać je i mieć duży wpływ na efekt końcowy. Ważne jest, żeby dokumentować udział człowieka w powstawaniu ostatecznej wersji.
Czytaj też
Uważaj, jakie dane udostępniasz
Darmowe modele AI (takie jak ChatGPT czy Google Gemini) często zbierają dane i później używają ich do trenowania modeli sztucznej inteligencji. Zaleca się, by nie wprowadzać do tego typu narzędzi wrażliwych danych, takich jak nazwiska, numery pesel, kody źródłowe czy informacje o wewnętrznych decyzjach firmy.
Innym sposobem jest anulowanie zgody na zbieranie danych. Trzeba to zrobić samodzielnie - w czasie zakładania konta lub później (taką opcję oferuje np. ChatGPT), bo taka zgoda jest automatycznie wyrażana za nas (zarówno w wersji płatnej, jak i bezpłatnej).
Firmy, które potrzebują pełnej prywatności i bezpieczeństwa, mogą skorzystać z przeznaczonych do tego płatnych rozwiązań, np. ChatGPT Enterprise.
Czytaj też
Halucynacje AI
Przy wprowadzaniu AI do biznesu, należy pamiętać, że sztuczna inteligencja ma skłonność do halucynacji.. Pisząc wprost halucynacja to w jakiś sposób zafałszowana, zmyślona przez AI informacja.
Niezgodne z prawdą odpowiedzi w chatbotach pojawiają się dość często. Nie zauważając pozornie niewielkiego błędu np. w wygenerowanym poście, możemy doprowadzić do rozpowszechniania fake newsa. Trzeba więc być bardzo uważnym.
Bias, czyli skłonność do dyskryminacji
Kolejnym wyzwaniem generatywnej AI jest bias, czyli stronniczość wynikająca z faktu, że w danych treningowych modelu sztucznej inteligencji nie znalazły się wystarczająco różnorodne przykłady. AI głownie szkolili biali mężczyźni z Zachodu, dlatego często dochodzi do dyskryminacji ze względu na płeć, kolor skóry, narodowość.
Potwierdza to głośny przypadek ze Stanów Zjednoczonych. Amerykańska drogeriia Rite Aid używła w swoich sklepach sztucznej inteligencji w celu wytypowania ewentualnych złodziei. Okazało się, że często i to niezgodnie z prawdą, typowane były osoby o ciemnej karnacji i kobiety. Niewinne osoby były przeszukiwane, wypraszane przez obsługę, a nawet wzywano do nich policję.
Ważne jest więc krytyczne podejście do wyników prezentowanych przez AI. Badania dowodzą, że nieprawidłowe wdrożenie systemów AI, przez które pracownicy będą bezrefleksyjnie podchodzić do danych wygenerowanych przez sztuczną inteligencję, sprawi, że spadnie jakość zrealizowanych zadań, a w ostateczności może to się skończyć pozwem. Nie wspominając o urazach psychicznych, jakich może doznać poszkodowana osoba.
Czytaj też
Jak wprowadzić AI do biznesu?
Jak zaznaczają autorzy raportu, organizacje zainteresowane wykorzystaniem generatywnej AI powinny najpierw przeprowadzić analizę ryzyka, co jest zgodne zarówno z wytycznymi Komisji Europejskiej dot. godnej zaufania sztucznej inteligencji, jak i z projektem unijnego rozporządzenia AI Act. Następnie ocenić, czy korzyści przewyższają ryzyka.
„Choć AI Act nie ma jeszcze charakteru obligatoryjnego, to już dziś warto wdrażać narzędzia sztucznej inteligencji zgodnie z tym rozporządzeniem. Pozwoli to płynnie przyswoić w firmie nowe wymogi, opracować odpowiednie polityki wewnętrzne i przygotować pracowników. Pierwszorzędne znaczenie ma tu rzetelna analiza ryzyka” - komentuje Maciej Chojnowski w rozmowie z CyberDefence24.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany