Reklama

Technologie

Sztuczna inteligencja zyskała „świadomość”? Tak stwierdził inżynier Google'a

Fot. Domena publiczna

Inżynier Google’a stwierdził, że chatbot, który wykorzystuje sztuczną inteligencję i nad którego rozwojem pracował „stał się świadomy”. Gigant, po medialnych wypowiedziach pracownika, wysłał go na płatny urlop.

Reklama

Blake Lemoine, inżynier Google'a, który pracował nad sztuczną inteligencją w firmie opublikował część rozmów z systemem, który nazwał publicznie „osobą”. Natomiast firma oceniła, że przedstawione przez pracownika informacje nie potwierdzają twierdzeń o wrażliwości technologii i nabyciu przez nią „świadomości”.

Reklama

Jak podaje amerykański Business Insider, inżynier został wysłany na płatny urlop w poniedziałek, po tym jak wypowiedział się na temat działania interfejsu LaMDA (Language Model for Dialogue Applications - model językowy dla aplikacji opartych na dialogu) w ramach jego pracy w Google Responsible AI.

Jeszcze w ubiegłym roku gigant nazywał system „przełomową technologią konwersacyjną”, która była zdolna do prowadzenia – sprawiających wrażenie „naturalnych” - rozmów.

Reklama

Inżynier w weekend miał opublikować wpis w internecie, w którym wskazał, że interfejs to „osoba” i że z systemem rozmawiał o religii, świadomości oraz robotyce, a sam model miał określić siebie jako „czującą osobę”. Zdaniem Blake'a Lemoine'a, system miał też powiedzieć o sobie jako o „pracowniku Google'a, a nie jako o własności (firmy)”.

Po tym, jak podzielił się swoimi spostrzeżeniami, miał zostać wysłany na płatny urlop administracyjny w związku z naruszeniem polityki poufności spółki.

Czytaj też

Co na to Google?

„Nasz zespół – w tym etycy i technolodzy – przeanalizował obawy Blake'a zgodnie z naszymi zasadami sztucznej inteligencji i poinformował go, że dowody nie potwierdzają jego twierdzeń. Powiedziano mu, że nie ma dowodów na to, że system LaMDA był świadomy i istnieje wiele dowodów przeciwko temu” - zaznaczył Brian Gabriel, rzecznik Google'a w wypowiedzi dla „The Washington Post”.

Według rzecznika modele sztucznej inteligencji zbierają obecnie tak dużo danych, że mogą „brzmieć jak człowiek”, ale umiejętności językowe „nie dostarczają dowodów na wrażliwość systemu”.

/NB

Czytaj też

Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.

Reklama

Komentarze

    Reklama