Reklama

CYBERMAGAZYN

#CyberMagazyn: Wartości sztucznej inteligencji. Jaki świat wygeneruje AI?

Liczba pytań, która pojawia się w kontekście rozwoju sztucznej inteligencji jest ogromna. Powstaje wręcz wrażenie, że kolejne dni i doniesienia o AI – zamiast stopniowo wyjaśniać powstające zawiłości - przynoszą nam coraz więcej znaków zapytania.

Reklama

Jakimi wartościami będzie kierować się sztuczna inteligencja? W jaki sposób będzie analizować poszczególne dane? Czy rozwój AI sprawi, że wzrosną nierówności społeczne, a największe firmy technologiczne jeszcze bardziej zdystansują konkurencję?

Reklama

Przyglądając się rozwojowi sztucznej inteligencji i debatując na temat przyszłości, którą nam przyniesie, co jakiś czas pojawia się wątek wartości etycznych. W jednej ze swoich publicznych wypowiedzi Sam Altman, prezes Open AI i jeden z twórców ChatuGPT powiedział, że „sztuczna inteligencja potrzebuje wartości". Jego zdaniem brak prawnych regulacji w jej rozwoju oraz brak określenia zasad dla firm, które AI się zajmują - może skończyć się dla nas fatalnie.

Trudno nie zgodzić się z tą tezą, ale w tym miejscu musi pojawić się pytanie o to, co właściwie może kryć się za pojęciem „regulacji" czy „wartości"? Czy fakt, że żyjemy w świecie o tak różnych systemach etycznych i spojrzeniach na świat oznacza, że stworzenie jednej, uniwersalnej sztucznej inteligencji nie będzie możliwe?

Reklama

Prywatna sztuczna inteligencja

Zdanem prof. Tomasza Trzcińskiego, lidera grupy badawczej w IDEAS NCBR, systemów sztucznej inteligencji będzie więcej. „Każda firma, która będzie miała dostęp do danych i zasobów będzie mogła stworzyć taką spersonalizowaną, dostosowaną do swoich potrzeb wersję"

Za przykład tak tworzonej AI prof. Trzciński podał BloombergGPT . To ten właśnie model trenowany jest jedynie na danych finansowych Bloomberga.

„Podobna przyszłość rysuje się również, jeśli chodzi o personalizowane modele, które każdy z nas będzie mógł dostosować do swoich potrzeb, na bazie swoich danych, przyzwyczajeń czy wartości" – tłumaczy nasz rozmówca, dodając że za każdy z takich modeli będziemy musieli zapłacić.

W swojej wypowiedzi prof. Trzciński zwrócił uwagę na jeszcze jedną rzecz – często zapominaną i spychaną na margines. Mianowicie chodzi o wpływ szaleńczego rozwoju AI na zmiany klimatyczne „Żeby proces doszkalania kolejnych wersji sztucznej inteligencji nie przyczynił się do zmian klimatycznych, musimy wciąż pracować i uwzględniać zielone rozwiązania uczenia maszynowego (...)" – dodał.

Czytaj też

Rosnące dysproporcje?

Czy niebywały sukces OpenAI , które – dzięki ChatowiGPT - stało się jednym z najpoważniejszych graczy na rynku technologicznym, przyprawiając o ból głowy takich gigantów jak Google czy Meta, jest znakiem tego, że przed gronem firm mniejszych niż największe Big Techy rysuje się szansa na dołączenie do liderów rynku?

Niekoniecznie. Wiele wskazuje na to, że rozwój sztucznej inteligencji doprowadzi do jeszcze większych dysproporcji na rynku. Według prof. Trzcińskiego mniejsze firmy i start-upy są niejako „skazane" na podporządkowanie się największym.

„Problem dotyczy nie tylko firm, ale również państw czy międzynarodowych organizacji. Monopolizacja badań nad sztuczną inteligencją, a więc de facto nad dostępem do informacji, w tym tych serwowanych przez modele językowe jak GPT, prowadzi do nierówności i potencjalnych nadużyć, które mieliśmy okazję obserwować w przypadku mediów społecznościowych" – powiedział.

Według naszego rozmówcy konieczne jest stawianie wymagań i wyznaczanie reguł, według których wykorzystywane są zasoby obliczeniowe. „Jeśli tego nie zaczniemy to Cambridge Analytica może się powtórzyć – tym razem pod przykrywką ChatGPT czy innego podobnego narzędzia" – dodał lider grupy badawczej w IDEAS NCBR.

Czytaj też

Nierówności społeczne

To nie wszystkie nierówności, na które warto zwrócić uwagę. Swoje obawy już w ubiegłym roku przedstawiła m.in. Fundacja Mozilla. „AI wykazuje skłonność nie tylko do dyskryminacji na tle etnicznym, ale i seksualnym – wszystko przez to, że działanie algorytmów opiera się na danych, które mogą same w sobie być zmanipulowane i nie oferować możliwości obiektywnej analizy" – pisaliśmy w tym tekście .

To wtedy wskazywaliśmy, że zdaniem Mozilli, wielkie firmy technologiczne, które są właścicielami algorytmów, nie wykazują się w swoich działaniach należytą przejrzystością względem tego, w jaki sposób korzystają z danych osobowych w swoich produktach opartych o sztuczną inteligencję. 

Czytaj też

Puszka Pandory?

Opinie tu zaprezentowane pokazują, że został zapoczątkowany proces, którego konsekwencje będziemy odczuwać w bliższej i dalszej przyszłości. Pozostaje mieć nadzieję, że poza wyartykułowanymi obawami - swój początek będą też miały odpowiednie działania, które sprawią, że świat sztucznej inteligencji nie podzieli i tak mocno już spolaryzowanego świata.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze