Reklama

Technologie

Davos 2024. Sam Altman: Sztuczna inteligencja nie zastąpi ludzi

Dyrektor generalny OpenAI Sam Altman mówił o przyszłości sztucznej inteligencji w czasie Forum w Davos
Dyrektor generalny OpenAI Sam Altman mówił o przyszłości sztucznej inteligencji w czasie Forum w Davos
Autor. World Economic Forum/Benedikt von Loebell

Podczas Światowego Forum Ekonomicznego w Davos nie zabrakło przedstawicieli Big Techów, a sztuczna inteligencja była odmieniana przez wszystkie przypadki. Głos w sprawie przyszłości AI zabrał dyrektor generalny OpenAI Sam Altman, który ocenił, że „jedynym sposobem, by poradzić sobie z ogólną nerwowością wokół AI, jest przekazanie tej technologii w ręce ludzi”.

Sztuczna inteligencja to jeden z głównych tematów konferencji w Davos, niektórzy komentatorzy ocenili nawet, że czują się jak na „wydarzeniu technologicznym”, ponieważ AI jest wszechobecna w wielu debatach i dyskusjach.

Reklama

Jak pisaliśmy na łamach CyberDefence24.pl, sekretarz generalny ONZ António Guterres wezwał przedstawicieli wielkich koncernów technologicznych, by współpracowali z rządami państw, by wprowadzić „bariery ochronne” dla wdrożenia AI. Czy jego słowa spotkają się ze zrozumieniem? Przekonamy się o tym w ciągu najbliższych miesięcy, choć lepiej nie mieć nadziei, że Big Techy kierują się innymi pobudkami niż tylko chęcią zysku.

Czytaj też

Sam Altman o AI: Nie zastąpi ludzkiej troski

Jedną z osób, które mówiły o przyszłości sztucznej inteligencji był dyrektor generalny OpenAI Sam Altman. W czasie sesji „Technologia w burzliwym świecie” prognozował, jaki wpływ na nasze życie i codzienność może mieć AI.

Po pierwsze, jego zdaniem wraz z rozwojem SI, będzie rosła produktywność ludzi, ponieważ już teraz znaleźli sposób, by „uczynić z ChatuGPT przydatne narzędzie i w większości zrozumieli, do czego należy go używać”. Jego zdaniem, wyjaśnienie niejasności wokół AI jest możliwe poprzez korzystanie z tego narzędzia przez ludzi, a „to najlepszy sposób na popchnięcie świata do przodu, dzięki technologii”.

Po drugie, zdaniem szefa OpenAI „sztuczna inteligencja będzie w stanie wyjaśnić nam swój sposób rozumowania”. Chodzi o to, że obecnie nie jesteśmy w stanie „zajrzeć” do czyjegoś mózgu, by zrozumieć w jaki sposób myśli o jakimś zjawisku czy sytuacji. Natomiast można podjąć próbę wyjaśnienia swojego sposobu rozumowania i na podstawie tego możemy zdecydować, czy się z tym zgadzamy. „Myślę, że nasze systemy AI również będą w stanie zrobić to samo. Będą mogły wyjaśnić w języku naturalnym kolejne kroki (rozumowania, sposobu myślenia) od A do B” - powiedział.

Po trzecie, Altman uważa, że AI „nigdy nie zastąpi ludzkiej troski o siebie nawzajem”. Porównał ją do gry w szachy, które wciąż są bardzo popularne i jako ludzi interesuje nas, jak postępuje człowiek, a nie maszyna. Podał też przykład czytania książki – jako odbiorcę interesuje nas kto jest autorem, fakty z jego życia czy to, co było jego inspiracją. Nic takiego nie miałoby miejsca w przypadku napisania tekstu przez chatbota.

Ludzie będą mieli lepsze narzędzia. Mieliśmy już lepsze narzędzia, ale nadal jesteśmy bardzo skupieni na sobie nawzajem
Sam Altman, dyrektor generalny OpenAI

Czytaj też

Sztuczna inteligencja a rynek pracy

Kluczowym pytaniem dla wielu jest kwestia wpływu sztucznej inteligencji na rynek pracy. Pisaliśmy o prognozach Międzynarodowego Funduszu Walutowego (IMF), który ostrzegał, że AI zmieni światową gospodarkę, wpłynie na 2/5 miejsc pracy i pogłębi nierówności. Jednocześnie może przyspieszyć globalny wzrost gospodarczy.

Choć powszechnie wiadomo, że największą obawą jest ziszczenie się prognozy, iż to „AI odbierze ludziom pracę”, to Sam Altman uważa, że zmieni niektóre funkcje/ role i - zamiast wykonywać np. powtarzalne czynności – będziemy mieli czas na kreatywne pomysły i podejmowanie decyzji.

Reklama

„Myślę, że praca każdego będzie wyglądać trochę podobnie. Wszyscy będziemy działać na nieco wyższym poziomie abstrakcji. Wszyscy będziemy mieli dostęp do znacznie większych możliwości. Nadal będziemy podejmować decyzje. Mogą z biegiem czasu wykazywać tendencję bardziej do ich nadzorowania, ale to my podejmiemy decyzje, co powinno się wydarzyć na świecie” - stwierdził szef OpenAI.

Czytaj też

Etyka i wartości AI

Innym, kluczowym pytaniem jest etyka sztucznej inteligencji i jej zastosowanie na wielu polach, choćby w aspekcie praw autorskich, konieczności globalnego porozumienia w sprawie regulacji czy wykorzystania AI na polu bitwy, o czym pisaliśmy wielokrotnie. Wspólnie z prawniczką dr Marią Dimitruk zastanawialiśmy się czy regulacje kiedykolwiek nadążą za technologią, o czym można przeczytać w wywiadzie na naszych łamach.

Czytaj też

Altman stwierdził w czasie Światowego Forum Ekonomicznego w Davos, że „wierzą, iż mogą zapewnić bezpieczeństwo”, a wdrażanie rozwiązań AI i ich upowszechnianie etapami ma sprawić, że „społeczeństwo może przyzwyczaić się do technologii”, a „instytucje mają czas na dyskusję, jak uregulować i jak wprowadzić bariery ochronne”.

Reklama

Jego zdaniem, nastąpił „ogromny postęp” między modelem GPT-3 a GPT-4 pod względem dostosowania się do wartości. Problemem wciąż jest jednak fakt, kto może decydować o wartościach i granicach AI; a także jak to będzie działało w poszczególnych państwach.

Według niego jest jednak „miejsce na optymizm”, a obowiązek branży technologicznej stanowi „uzyskanie opinii społeczeństwa w zakresie podejmowania decyzji o wartościach oraz o bezpieczeństwie, by ryzyko nie przewyższało korzyści”.

Stwierdził także: „Mam dużo empatii do ogólnej nerwowości i dyskomfortu świata wobec firm takich, jak my. Mamy własne zdenerwowanie, ale wierzymy, że możemy sobie z tym poradzić, a jedynym sposobem, by to zrobić jest przekazanie technologii w ręce ludzi”. Zatem podstawowym zadaniem dla OpenAI ma być „zbudowanie systemów, które zapewnią ogromną wartość, jednocześnie spełniając wymogi bezpieczeństwa”.

Prawa autorskie a ChatGPT

Sam Altman stwierdził również, że potrzebne są „nowe modele ekonomiczne”, które rekompensowałyby właścicielom treści fakt ich wykorzystania do celów szkoleniowych.

Przypomnijmy, że dyskusja przeciwników systemów takich jak OpenAI w głównej mierze skupia się właśnie na problemie wykorzystywania treści przez chatboty bez poszanowania pracy ich twórców.

Wystarczy podać przykład „The New York Times” - wydawca dziennika pod koniec grudnia 2023 roku złożył pozew przeciwko firmom OpenAI i Microsoft. Celem pozwu ma być zatrzymanie wykorzystywania historii napisanych przez dziennikarzy „NYT” do trenowania chatbotów, takich jak ChatGPT czy Bing (oparte o duży model językowy GPT-4 od OpenAI).

OpenAI w swoim oświadczeniu tłumaczyło z kolei, że „z prawnego punktu widzenia, prawo autorskie nie zabrania szkoleń AI”. Według firmy, kolejnym argumentem mającym działać na jej korzyść w sporze z „NYT” ma być fakt współpracy z innymi agencjami informacyjnymi czy mediami (News Media Alliance oraz wydawcami, takimi jak Axel Springer czy Associated Press).

Czytaj też

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze

    Reklama