Reklama
  • WIADOMOŚCI

Sztuczna inteligencja zyskała „świadomość”? Tak stwierdził inżynier Google'a

Inżynier Google’a stwierdził, że chatbot, który wykorzystuje sztuczną inteligencję i nad którego rozwojem pracował „stał się świadomy”. Gigant, po medialnych wypowiedziach pracownika, wysłał go na płatny urlop.

Fot. Domena publiczna
Fot. Domena publiczna
Reklama

Blake Lemoine, inżynier Google'a, który pracował nad sztuczną inteligencją w firmie opublikował część rozmów z systemem, który nazwał publicznie „osobą”. Natomiast firma oceniła, że przedstawione przez pracownika informacje nie potwierdzają twierdzeń o wrażliwości technologii i nabyciu przez nią „świadomości”.

Reklama

Jak podaje amerykański Business Insider, inżynier został wysłany na płatny urlop w poniedziałek, po tym jak wypowiedział się na temat działania interfejsu LaMDA (Language Model for Dialogue Applications - model językowy dla aplikacji opartych na dialogu) w ramach jego pracy w Google Responsible AI.

Jeszcze w ubiegłym roku gigant nazywał system „przełomową technologią konwersacyjną”, która była zdolna do prowadzenia – sprawiających wrażenie „naturalnych” - rozmów.

Reklama

Inżynier w weekend miał opublikować wpis w internecie, w którym wskazał, że interfejs to „osoba” i że z systemem rozmawiał o religii, świadomości oraz robotyce, a sam model miał określić siebie jako „czującą osobę”. Zdaniem Blake'a Lemoine'a, system miał też powiedzieć o sobie jako o „pracowniku Google'a, a nie jako o własności (firmy)”.

Po tym, jak podzielił się swoimi spostrzeżeniami, miał zostać wysłany na płatny urlop administracyjny w związku z naruszeniem polityki poufności spółki.

Reklama
Reklama

Co na to Google?

„Nasz zespół – w tym etycy i technolodzy – przeanalizował obawy Blake'a zgodnie z naszymi zasadami sztucznej inteligencji i poinformował go, że dowody nie potwierdzają jego twierdzeń. Powiedziano mu, że nie ma dowodów na to, że system LaMDA był świadomy i istnieje wiele dowodów przeciwko temu” - zaznaczył Brian Gabriel, rzecznik Google'a w wypowiedzi dla „The Washington Post”.

Reklama

Według rzecznika modele sztucznej inteligencji zbierają obecnie tak dużo danych, że mogą „brzmieć jak człowiek”, ale umiejętności językowe „nie dostarczają dowodów na wrażliwość systemu”.

/NB

Reklama
Reklama

Chcemy być także bliżej Państwa – czytelników. Dlatego, jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected]. Przyszłość przynosi zmiany. Wprowadzamy je pod hasłem #CyberIsFuture.

Reklama
CyberDefence24.pl - Digital EU Ambassador

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Cyfrowy Senior. Jak walczy się z oszustami?