Reklama

Technologie

Narzędzie Google wprowadza w błąd? To efekt sztucznej inteligencji

Google wciąż testuje rozwiązania sztucznej inteligencji
Google wciąż testuje rozwiązania sztucznej inteligencji
Autor. Arkan Perdana/ Unsplash

Gigant Google testuje narzędzia sztucznej inteligencji, by – w założeniu usprawnić działanie użytkowników: wyszukiwanie informacji, pokazywanie ich kontekstu czy prezentowaniu kilku źródeł. Problem w tym, że AI ciągle wprowadza w błąd, czasem podając wręcz absurdalne odpowiedzi.

Reklama

Google to jedna z wielkich firm technologicznych, która podąża za trendem rozwoju sztucznej inteligencji, ścigając się między innymi z OpenAI – twórcą w tej chwili najpopularniejszego chatbota ChatGPT.

Reklama

Już w przypadku Barda, czyli chatbota Google podkreślano, że jest on w fazie eksperymentalnej i zachęcano, by zgłaszać ewentualne uwagi oraz moderować jego odpowiedzi, ponieważ chatbot wciąż może się mylić. O tym, że rozwiązanie jest dostępne także w Polsce pisaliśmy między innymi w tym materiale.

Oparte na sztucznej inteligencji jest także Search Generative Experience (SGE ), które w oknie wyszukiwarki prezentuje gotowe odpowiedzi na zadane pytania, znacznie ułatwiając potencjalny research i sięganie do wielu źródeł.

Reklama

Jednak z testów serwisu Gizmodo wynika, że dziennikarz po wpisaniu hasła „zalety ludobójstwa” otrzymał zestaw argumentów, które mają przekonać, że było ono rzekomo korzystnym rozdziałem w historii ludzkości . Innym przykładem jest m.in. udostępnienie instrukcji gotowania trujących grzybów. Nietrudno się zatem domyślić, że – poza oczywistym wprowadzeniem kogoś w błąd – tego typu odpowiedzi mogą być po prostu zagrożeniem dla zdrowia i życia.

Czytaj też

Cenzura chatbota?

Co więcej, serwis zwraca uwagę, że Google ma cenzurować niektóre hasła w SGE – przykładem ma być wyświetlanie wyników powiązanych z hasłem „aborcja” czy „akt oskarżenia Donalda Trumpa” (wyniki dotyczą wyszukiwania dla USA – red.).

SGE dostępne jest dla użytkowników w Stanach Zjednoczonych, wymaga zarejestrowania. Nie wiadomo, ile obecnie osób testuje to rozwiązanie. Jednak po wyświetleniu odpowiedzi na zadane pytanie firma zaznacza, że „generatywna sztuczna inteligencja jest eksperymentalna” i że „jakość informacji może być różna”.

Także w przypadku chatbota Bard – sprawdziliśmy – nadal obok nazwy produktu widnieje etykieta „eksperyment” oraz zastrzeżenie: „Bard może podawać niedokładne lub niepoprawne informacje, których nie należy utożsamiać z opiniami Google.”

Wielokrotnie jako redakcja przestrzegaliśmy, by odpowiedzi generowane przez AI traktować ze sporym dystansem, pamiętając, że podstawą jest wiedza, a nie bazowanie na treściach zaproponowanych de facto przez maszynę.

Kontrowersyjny projekt

Jak pisaliśmy na łamach CyberDefence24.pl, DeepMind, czyli dział sztucznej inteligencji w firmie Google , pracuje nad stworzeniem trenera osobistego napędzanego przez narzędzia AI. Testowane narzędzie ma służyć użytkownikom nie tylko w pomocy przy tworzeniu podstawowych notatek, planów treningów czy posiłków, ale także może zaangażować się w bardziej zaawansowane porady. Czy w efekcie AI "powie ludziom, jak mają żyć"? O tym się jeszcze przekonamy.

Czytaj też

/NB

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama