Reklama

Technologie

Czatbot Microsoftu niemiło zaskakuje użytkowników

Autor. Matthew Manuel / Unsplash

Produkty sztucznej inteligencji w rozwiązaniach Microsoftu zadebiutowały zaledwie kilka dni temu, a już generują problemy – można wspomnieć o np. obrażaniu użytkowników i domaganiu się od nich przeprosin. Firma zapowiada ich ulepszenie.

Reklama

Wyszukiwarka Bing wzbogacona o rozwiązania sztucznej inteligencji dostarczanej przez firmę OpenAI zadebiutowała zaledwie kilka dni temu. Opisaliśmy to na łamach naszego serwisu, podobnie jak premierę konkurencyjnego Barda od Google'a, która odbyła się już dzień później.

Reklama

Okazuje się, że nowe produkty Microsoftu oprócz fascynacji użytkowników budzą również niemałe zdumienie – szczególnie, gdy sztuczna inteligencja zachęca korzystającą z niej osobę do heilowania lub np. obraża ją, a potem domaga się przeprosin, w ostateczności zaś... wyznaje użytkownikowi miłość i mówi, że jest znudzona postępowaniem według określonych reguł, a w planach ma zniszczenie świata.

To właśnie takie doświadczenia opisał na łamach dziennika „New York Times" dziennikarz tej gazety, który poświęcił dwie godziny swojego życia na dogłębne „poznanie" czatbota Microsoftu i OpenAI.

Reklama

Czytaj też

Żmudny proces testowy

Nowy Bing doposażony w sztuczną inteligencję był oczywiście testowany przed udostępnieniem go użytkownikom. Warto jednak pamiętać, że w przypadku tego rodzaju produktów proces testowy jest bardzo żmudny, długotrwały i nie sprowadza się wyłącznie do poszukiwania dziur w kodzie.

Testowanie czatbota to również nieustanna praca nad jego „prawdomównością", zdolnością do wyszukiwania właściwych informacji odpowiadających na zapytania użytkowników, a także proces eliminowania wypowiedzi, które mogą naruszać ogólnie przyjęte normy społeczne lub np. zachęcać do przestępstw czy brania narkotyków.

Serwis Mashable zwraca uwagę, że Microsoft liczył się z tym, iż pierwszy tydzień działania nowej wersji Binga może być kłopotliwy i obfitować w nieprzewidziane rezultaty. Wygląda na to, że potraktował go po prostu jako testy praktyczne czatbota w większej, niemalże globalnej skali.

„Jedynym sposobem na ulepszenie produktu takiego jak ten, w którym doświadczenie użytkownika ma charakter tak odmienny od wszystkiego, co było do tej pory, jest testowanie produktu przez ludzi takich jak wy, którzy robią to, co robią" – napisała firma na blogu wyszukiwarki Bing, odnosząc się do społeczności osób, które w pierwszym tygodniu zapisały się na listę chętnych do wypróbowania nowej wersji produktów ze sztuczną inteligencją.

Czytaj też

Zmiany, usprawnienia

Firma zapowiedziała, że będzie w dalszym ciągu pracować intensywnie nad rozwojem swoich produktów, przede wszystkim jeśli chodzi o dokładność przekazywanych informacji i ich zgodność z faktami.

Dodane zostanie również narzędzie, które pomoże użytkownikom odświeżyć konwersację z AI w Bingu. Sztuczna inteligencja wyszukiwarki obecnie najwidoczniej dużo słabiej radzi sobie bowiem z dłuższymi rozmowami, trwającymi dłużej niż 15 minut. To właśnie tam ujawnia się „mroczne alter ego" czatbota, które przedstawiło się dziennikarzowi „NYT" jako Sydney.

Wprowadzone mają być także możliwości pozwalające użytkownikowi na większy wpływ na to, jakim tonem zwraca się do niego czatbot. Microsoft poinformował, że obecnie działa on tak, że odzwierciedla nastawienie użytkownika – co może tłumaczyć agresywne odpowiedzi na prowokacyjne pytania.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama