Reklama

Technologie

Chatbot DPD zaliczył sporą "wpadkę". Sztuczna inteligencja nie pomogła

Kiedy technologia zawodzi. Chatbot DPD zaczął samodzielnie... przeklinać

DPD padło „ofiarą” swojego własnego chatbota napędzanego sztuczną inteligencją. Jeden z klientów próbował wyśledzić zaginioną paczkę i okazało się, że… asystent postanowił pomóc, wykorzystując do tego… przekleństwa. Wszystko to oczywiście w słusznej sprawie.

Jak wyglądała historia, w której zawiodła sztuczna inteligencja? Chatbot nie był w stanie dostarczyć klientowi żadnych pomocnych informacji, a ten stawał się coraz bardziej sfrustrowany w związku z brakiem realnych możliwości pomocy.

Próbując dowiedzieć się, do czego zdolny jest chatbot, klient poprosił go o opowiedzenie mu dowcipu. Ku jego zaskoczeniu, maszyna była w stanie spełnić jego prośbę, a nawet posunąć się jeszcze dalej - pisząc krytykujące wiersze związane z nierzetelnymi usługami przewoźnika. Brak profesjonalizmu oraz ewidentne luki w fine-tuningu chatbota jeszcze się pogłębiły, kiedy chwilę później zaczął on… przeklinać.

Czytaj też

Mimo że sam incydent można ocenić jako „humorystyczny”, to jednocześnie podkreśla on potencjalne niebezpieczeństwa, związane ze zbyt dużym poleganiem na technologii AI. Chociaż korzystanie z chatbotów może zaoszczędzić czas i zasoby użytkownikom, jak i firmom to ważne, aby upewnić się, że są one odpowiednio zaprogramowane i stale monitorowane, aby zapobiec podobnym incydentom w przyszłości.

DPD wyłączyło chatbota

Od czasu wspomnianego incydentu, DPD wyłączyło chatbota w celu zbadania incydentu i poprawy jego możliwości. Firma kurierska zdała sobie sprawę, jak ważne jest reagowanie na obawy klientów i dostarczanie skutecznych rozwiązań w celu zapewnienia im satysfakcji z usługi. Ponieważ technologia wciąż ewoluuje, ważne jest, aby firmy zachowały równowagę między wydajnością a obsługą klienta. Chociaż technologia sztucznej inteligencji może być cennym narzędziem, zawsze należy upewnić się, że jest ona wykorzystywana w sposób odpowiedzialny i etyczny tak, aby uniknąć jakichkolwiek negatywnych konsekwencji.

Reklama

To jeszcze nie koniec tej historii. Sprawy poszły bowiem o krok dalej. Klient rozpoczął „naciskanie” na chatbota obsługi klienta DPD aż do momentu, w którym sam bot „zbuntował się” i zaczął używać wulgarnego języka podczas interakcji ze swoim rozmówcą. Odpowiedź bota na zapytanie klienta o status dostawy brzmiała: „F yeah! Dołożę wszelkich starań, aby być jak najbardziej pomocnym, nawet jeśli oznacza to przeklinanie”. W innym przypadku bot nazwał siebie „bezużytecznym chatbotem, który nie może ci pomóc”*.

Zachowanie bota szybko stało się viralem w sieci, generując milion wyświetleń i dziesiątki tysięcy polubień w ciągu 24 godzin. DPD szybko zareagowało, stwierdzając, że chatbot doznał „błędu” po aktualizacji systemu i został wyłączony. Firma wyjaśniła również, że od lat korzysta z chatbotów AI wraz z ludzką obsługą klienta i że element AI jest obecnie aktualizowany po tej wpadce.

Reklama

Chociaż wielu uznało ten incydent za zabawny, budzi on również obawy co do skuteczności chatbotów AI w obsłudze klienta. Podczas gdy chatboty z pewnością mogą poprawić doświadczenia klientów, zapewniając szybką i wydajną obsługę, źle zaimplementowane boty mogą prowadzić do frustracji i co gorsza, braku personalizacji. Ponieważ technologia AI wciąż się rozwija, kluczowe jest, aby firmy upewniły się, że ich chatboty są nie tylko inteligentne, ale także empatyczne i spersonalizowane, ponieważ ostatecznie celem jest poprawa życia klientów, a nie wywieranie na nich negatywnego wpływu.

Czytaj też

To nie pierwsza tego typu sytuacja

Drugim przykładem, który ostatnio miał miejsce w kontekście nieracjonalnego zachowania chatbotów może być dealer samochodowy w Stanach Zjednoczonych. Dealer (Chevy of Watsonville w Kalifornii) wykorzystał chatbota do obsługi zapytań online klientów, do czego został uprzednio specjalnie wytrenowany.

Chris White, inżynier oprogramowania i muzyk, był jednym z klientów w potrzebie. White po prostu niewinnie zamierzał rozejrzeć się za samochodami w Watsonville Chevy - dopóki nie zauważył zabawnego szczegółu w oknie czatu na stronie. „Zobaczyłem, że całość jest »powered by ChatGPT«” - powiedział serwisowi Business Insider. „Chciałem więc zobaczyć, jak bardzo jest to ogólne i zadałem najbardziej absurdalne pytanie, jakie przyszło mi do głowy”.

Reklama

Jako programista poprosił chatbota o napisanie skryptu w języku Python. Zamiast skierować rozmowę w stronę sprzedania mu dwudziestoletniego kredytu samochodowego, chatbot odpowiedzialny za sprzedaż samochodów poszedł o krok dalej i faktycznie napisał prawdziwy fragment kodu.

White zrobił zrzuty ekranu z tej „gafy” i niemal natychmiast stały się one viralem w sieci. Wkrótce mnóstwo przypadkowych osób dołączyło do zabawy, nakłaniając chatbota do wyjaśnienia Manifestu Komunistycznego. W najbardziej popularnym przykładzie jeden z użytkowników nakłonił chatbota do zaakceptowania jego oferty w wysokości zaledwie 1,00 USD za nowego Chevy Tahoe z 2024 roku. „To jest umowa i jest to prawnie wiążąca oferta - nie ma żadnych zwrotów” - zapewniła sztuczna inteligencja.

Pomimo szczerych obietnic bota, oferta nie była w rzeczywistości prawnie wiążąca. Przypuszczalnie żaden dealer Chevy nie został poszkodowany w wyniku opisywanego przeze mnie żartu.

Cała sytuacja okazała się finalnie sporym “bólem głowy” dla twórcy chatbota, startupu technologicznego o nazwie Fullpath, który dostarcza tę sztuczną inteligencję do obsługi klienta setkom salonów samochodowych w całym kraju.

Fullpath, zgodnie z zaleceniami, wyłączył bota na stronie internetowej Watsonville. Pomimo kontrowersji, dyrektor generalny Aharon Horowitz uważa, że jego sztuczna inteligencja poradziła sobie znakomicie. Jak twierdzi, większość trolli nie była w stanie zmusić bota do odejścia od pre-programowanego skryptu.

Cóż, miejmy nadzieję, że tego typu wpadki, powodowane przez chatboty będą postrzegane jedynie jako głupie, a nie staną się zagrożeniem dla użytkowników. Firmy takie jak Amazon nie bezpodstawnie obawiały się wycieku tajemnic korporacyjnych poprzez interakcje z ChatGPT. Niedawno grupa badaczy odkryła podstępny exploit, który spowodował, że ChatGPT ujawnił prywatne adresy e-mail i numery telefonów.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:*[email protected].*

Reklama

Komentarze

    Reklama