Polityka i prawo
Jedna z twórczyń modelu ChatGPT apeluje o regulację sztucznej inteligencji
Mira Murati to dyrektorka ds. technologii w firmie OpenAI, która stworzyła słynny ChatGPT oraz algorytm generujący obrazy DALL-E. Jej zdaniem sztuczna inteligencja to dziedzina, którą trzeba wziąć w karby regulacji prawnych, aby uniknąć największych zagrożeń.
W rozmowie z magazynem „Time" Murati zadeklarowała, że rewolucja niesiona przez sztuczną inteligencję nie będzie zbyt różna od tych, których już doświadczyliśmy. „Powstaną nowe miejsca pracy, inne zostaną utracone. Jestem jednak optymistką" – dodała.
Mira Murati to jedna z osób tworzących firmę OpenAI – twórców rozwiązań takich, jak ChatGPT czy algorytm DALL-E generujący obrazy. Oba modele w końcu ubiegłego roku przebojem zdobyły scenę technologiczną, zadziwiając nas sprawnością swojego działania i zdolnością do tworzenia doskonałych imitacji ludzkiej pracy – tak w zakresie pracy z tekstem, jak i sztuką cyfrową.
Czytaj też
Nikt nie spodziewał się takiego hitu
Murati powiedziała, że przed premierą modelu ChatGPT w OpenAI nie spodziewano się, że odniesie on aż taki sukces i będzie budził tak wiele emocji. Jak dodała, ciekawi ją, jakie praktyczne zastosowania będzie miała ta technologia, abstrahując od emocji, które budzi i wykorzystywania jej w celach rozrywkowych.
Pytana o ograniczenia i wyzwania, które stoją przed modelem, Murati wskazała na problem z weryfikacją wyników, które ChatGPT zwraca swoim użytkownikom. Odpowiedzi czatbota nie muszą być prawdziwe – a o możliwych zastosowaniach tego rodzaju narzędzi do działań z zakresu dezinformacji pisaliśmy na łamach CyberDefence24.pl w tym tekście .
Jakie problemy rozwiąże ChatGPT?
Zdaniem przedstawicielki OpenAI, w przyszłości ChatGPT i inne tego rodzaju technologie mogą znaleźć zastosowanie m.in. w edukacji, personalizując ją i np. dostarczając tłumaczenia trudnych zagadnień naukowych na poziomie dostosowanym do ucznia. Edukacja miałaby wówczas odbywać się przez konwersację uczniów z modelem, który ucząc się ich sposobu rozumowania i gromadząc informacje o posiadanej wiedzy, będzie potrafił dostosować konstrukcję wypowiedzi do indywidualnych potrzeb.
Tymczasem, szkoły zabraniają korzystania z ChatGPT, który został już bardzo licznie wykorzystany do oszukiwania i np. pisania wypracowań zadanych do domu.
Czytaj też
Ostrożnie z nowymi technologiami
W wywiadzie udzielonym magazynowi „Time" Murati wskazała, że obecnie znajdujemy się w szczególnym momencie dziejowym, jeśli chodzi o rozwój nowych technologii – to my jako ludzie kształtujemy technologie, ale i one kształtują nas. Rodzi to wiele szans i problemów, takich jak np. konieczność zapewnienia, że to, co robi sztuczna inteligencja, jest zbieżne z intencjami jej twórców i działa w służbie ludzkości, a nie przeciwko niej.
Murati powiedziała, że zdaje sobie sprawę z wyzwań socjologicznych i etycznych stojących przed sztuczną inteligencją, a jedną z kluczowych kwestii jest problem wykorzystania jej do złych celów. Aby temu podołać, muszą powstać regulacje, które wezmą sektor sztucznej inteligencji w karby.
Czytaj też
Jak uregulować sztuczną inteligencję?
Zdaniem Miry Murati, działania na rzecz zapewnienia bezpieczeństwa przy korzystaniu z technologii opartych o sztuczną inteligencję powinny być realizowane we współpracy z regulatorami i rządami, bo same firmy oferujące tego rodzaju rozwiązania nie poradzą sobie z tym zagadnieniem.
Pytana o to, czy technologie te nie są obecnie na zbyt wczesnym etapie rozwoju i czy regulacja nie wpłynie negatywnie na innowacyjność w branży oceniła, że to odpowiedni moment, w którym wszystkie strony odpowiedzialne za bezpieczeństwo korzystania z nowych wynalazków powinny zaangażować się w działania na rzecz jego zapewnienia, szczególnie w związku z wpływem, jaki sztuczna inteligencja i inne rozwiązania będą wywierały na społeczeństwo.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].