Reklama

Technologie

Droga sztuczna inteligencja. ChatGPT może kosztować dziennie nawet 700 tys. dolarów

Microsoft ma pracować nad własnym chipem sztucznej inteligencji
Microsoft ma pracować nad własnym chipem sztucznej inteligencji
Autor. Wikimedia Commons/ Public Domain

ChatGPT, który nie schodzi z nagłówków mediów na całym świecie, może kosztować OpenAI nawet 700 tys. dolarów dziennie – twierdzi jeden z analityków. Powodem jest utrzymanie drogich serwerów, które wymagają ogromnych mocy obliczeniowych, by generować odpowiedzi na pytania użytkowników.

Reklama

Generowanie postów do mediów społecznościowych, pisanie kodu, serwowanie gotowych przepisów czy pisanie stron internetowych na podstawie zapytań użytkowników przez chatbota, może kosztować OpenAI ponad 700 tys. dolarów dziennie – twierdzi The Information .

Reklama

Firma Microsoft , która nieoficjalnie miała zainwestować w twórcę chatbota 10 mld dolarów, ma szukać sposobów, by obsługa sztucznej inteligencji nie generowała tak wysokich kosztów. W tajemnicy ma budować chip AI, by obniżyć koszty – podaje serwis.

Powodem tak wysokich kosztów ma być infrastruktura konieczna do utrzymania i obsługi chatbota, a dzienną stawkę wyliczył Dylan Patel, główny analityk w firmie badawczej SemiAnalysis, zajmującej się półprzewodnikami. Obecnie model GPT-4 może generować jeszcze wyższe koszty, ponieważ analityk swoje obliczenia opierał na modelu GPT-3, który potrzebował mniejszej mocy obliczeniowej.

Reklama

Jeden z cytowanych ekspertów w rozmowie z CNBC - Nick Walton, dyrektor generalny Latitude, startupu stojącego za grą AI – zwrócił uwagę, że uruchomienie modelu AI nie jest wcale tak tanią sprawą, jak mogłoby się wydawać: najpierw firmę kosztowało to 200 tys. dolarów miesięcznie (kiedy korzystała z serwerów AWS), a następnie zmieniła dostawcę, co pozwoliło na zredukowanie kosztów do 100 tys. dolarów miesięcznie.

Cytowany przez serwis, zwraca uwagę, że w firmie żartem było iż koszt pracowników „ludzkich” i pracowników AI był niemal taki sam. „Wydaliśmy setki tysięcy dolarów miesięcznie na sztuczną inteligencję. Nie jesteśmy dużym startupem, więc był to bardzo ogromny koszt” – skomentował Nick Walton.

To rzuca nowe światło na twierdzenia, że AI wyprze człowieka z rynku pracy, bowiem w tych dyskusjach brakuje zwykle elementu ekonomicznego i faktu, że korzystanie z rozwiązań sztucznej inteligencji na co dzień nie jest przecież darmowe (choć w tej chwili firmy AI większość kosztów wzięły na siebie, to wyższe wersje subskrybcji modeli są już płatne).

Czytaj też

Microsoft pracuje nad chipem AI?

Według The Information, Microsoft by obniżyć koszty uruchamiania generatywnych modeli AI ma pracować nad chipem sztucznej inteligencji o nazwie Athena.

Pomysł na własny chip miał wynikać z faktu, że gigant tech zdał sobie sprawę, że pozostaje w tyle za Google i Amazonem w wysiłkach na rzecz budowy własnych układów scalonych. Dodatkowo firma miała szukać tańszej alternatywy niż kosztowne chipy Nvidii. W związku z tym zdecydowano sie zbudować własne. Cztery lata później ponad 300 pracowników tego Big Techu ma pracować nad własnym chipem, który miałby zostać wypuszczony do użytku wewnętrznego przez Microsoft i OpenAI w przyszłym roku. Na razie jednak firma nie skomentowała sprawy.

Czytaj też

/NB

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze