Technologie

Sztuczna inteligencja z własną świadomością? "To niemożliwe"

Fot. Seanbatty / Pixabay

Czy sztuczna inteligencja może posługiwać się zdrowym rozsądkiem i czy jej sposób myślenia może uwzględniać kwestie etyczne? Jakich zmian potrzebuje AI i jaka przyszłość może ją czekać?

Nad pytaniem zadanym we wstępie tego tekstu pochyliła się Yejin Choi z University of Washington - jedna z najbardziej cenionych informatyczek na świecie, z którą rozmawiali dziennikarze „New York Times" .

Przecenione narzędzie?

Yeijin Choi jest tegoroczną lauretką prestiżowej nagrody MacArthura. Wyróżnione badania Yeijin Choi dotyczą wspomnianego „zdrowego rozsądku" sztucznej inteligencji oraz tego, czy na powstanie takich narzędzi jak chociażby ChatGPT, powinniśmy patrzeć z pewną podejrzliwością i niepewnością.

Już na samym początku rozmowy Choi rozwiewa te wątpliwości, uważając teorie dotyczące „świadomej AI" za teorie spiskowe. Studzi też emocje dotyczące generatorów, takich jak ChatGPT. Jej zdaniem są one w stanie stworzyć poprawny językowo i logicznie tekst, ale podkreśla, że będzie im brakować pewnego kontekstu, który może posiadać jedynie człowiek interesujący się daną dziedziną. „GPT3 jest ciekawym narzędziem, ale jest przeceniany" – twierdzi Choi.

Czytaj też

Informatyczka zwraca też uwagę na jeszcze inny, niezwykle ciekawy aspekt. Mówi o tym, że rzeczy, które z łatwością przychodzą ludziom, niekoniecznie muszą być łatwe dla sztucznej inteligencji i odwrotnie. Maszyna z łatwością obliczy trudne matematyczne zadanie, ale to człowiek będzie miał przewagę w kontekście odpowiedzi na bardziej abstrakcyjne pytania. „Jeśli spojrzysz na średnią wydajność >>maszyny AI<<, to daleko jej do solidnej ludzkiej inteligencji".

Choi wskazuje też na Test Turinga, wymyślony w 1950 roku. Celem testu miało być znalezienie takiego narzędzia AI, które będzie odpowiadać na ludzkie zapytania w taki sposób, aby kontaktujący się ze sztuczną inteligencją myśleli, że komunikują się z człowiekiem. Wspomniany Chat GPT takiego testu – zdaniem Choi - nie przeszedł.

Sztuczna inteligencja i moralność

W związku z tym, że za tworzenie i modyfikacje AI odpowiada człowiek, powstaje pytanie dotyczące jej ewentualnej stronniczości. Czy możliwe jest powstanie narzędzia, które będzie szanować pluralizm ludzkich wartości i ich różnorodność?

Według Choi, sztuczna inteligencja musi nauczyć się podejmować decyzje moralne. Bez tego nie będzie ona w stanie wchodzi w interakcje z ludźmi w sposób dla nich bezpieczny i respektujący ich podmiotowość.

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]

/MG

Komentarze

    Czytaj także