Technologie
Narzędzie Google wprowadza w błąd? To efekt sztucznej inteligencji
Gigant Google testuje narzędzia sztucznej inteligencji, by – w założeniu usprawnić działanie użytkowników: wyszukiwanie informacji, pokazywanie ich kontekstu czy prezentowaniu kilku źródeł. Problem w tym, że AI ciągle wprowadza w błąd, czasem podając wręcz absurdalne odpowiedzi.
Google to jedna z wielkich firm technologicznych, która podąża za trendem rozwoju sztucznej inteligencji, ścigając się między innymi z OpenAI – twórcą w tej chwili najpopularniejszego chatbota ChatGPT.
Już w przypadku Barda, czyli chatbota Google podkreślano, że jest on w fazie eksperymentalnej i zachęcano, by zgłaszać ewentualne uwagi oraz moderować jego odpowiedzi, ponieważ chatbot wciąż może się mylić. O tym, że rozwiązanie jest dostępne także w Polsce pisaliśmy między innymi w tym materiale.
Oparte na sztucznej inteligencji jest także Search Generative Experience (SGE ), które w oknie wyszukiwarki prezentuje gotowe odpowiedzi na zadane pytania, znacznie ułatwiając potencjalny research i sięganie do wielu źródeł.
Jednak z testów serwisu Gizmodo wynika, że dziennikarz po wpisaniu hasła „zalety ludobójstwa” otrzymał zestaw argumentów, które mają przekonać, że było ono rzekomo korzystnym rozdziałem w historii ludzkości . Innym przykładem jest m.in. udostępnienie instrukcji gotowania trujących grzybów. Nietrudno się zatem domyślić, że – poza oczywistym wprowadzeniem kogoś w błąd – tego typu odpowiedzi mogą być po prostu zagrożeniem dla zdrowia i życia.
Czytaj też
Cenzura chatbota?
Co więcej, serwis zwraca uwagę, że Google ma cenzurować niektóre hasła w SGE – przykładem ma być wyświetlanie wyników powiązanych z hasłem „aborcja” czy „akt oskarżenia Donalda Trumpa” (wyniki dotyczą wyszukiwania dla USA – red.).
SGE dostępne jest dla użytkowników w Stanach Zjednoczonych, wymaga zarejestrowania. Nie wiadomo, ile obecnie osób testuje to rozwiązanie. Jednak po wyświetleniu odpowiedzi na zadane pytanie firma zaznacza, że „generatywna sztuczna inteligencja jest eksperymentalna” i że „jakość informacji może być różna”.
Także w przypadku chatbota Bard – sprawdziliśmy – nadal obok nazwy produktu widnieje etykieta „eksperyment” oraz zastrzeżenie: „Bard może podawać niedokładne lub niepoprawne informacje, których nie należy utożsamiać z opiniami Google.”
Wielokrotnie jako redakcja przestrzegaliśmy, by odpowiedzi generowane przez AI traktować ze sporym dystansem, pamiętając, że podstawą jest wiedza, a nie bazowanie na treściach zaproponowanych de facto przez maszynę.
Kontrowersyjny projekt
Jak pisaliśmy na łamach CyberDefence24.pl, DeepMind, czyli dział sztucznej inteligencji w firmie Google , pracuje nad stworzeniem trenera osobistego napędzanego przez narzędzia AI. Testowane narzędzie ma służyć użytkownikom nie tylko w pomocy przy tworzeniu podstawowych notatek, planów treningów czy posiłków, ale także może zaangażować się w bardziej zaawansowane porady. Czy w efekcie AI "powie ludziom, jak mają żyć"? O tym się jeszcze przekonamy.
Czytaj też
/NB
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].