Technologie
Droga sztuczna inteligencja. ChatGPT może kosztować dziennie nawet 700 tys. dolarów
ChatGPT, który nie schodzi z nagłówków mediów na całym świecie, może kosztować OpenAI nawet 700 tys. dolarów dziennie – twierdzi jeden z analityków. Powodem jest utrzymanie drogich serwerów, które wymagają ogromnych mocy obliczeniowych, by generować odpowiedzi na pytania użytkowników.
Generowanie postów do mediów społecznościowych, pisanie kodu, serwowanie gotowych przepisów czy pisanie stron internetowych na podstawie zapytań użytkowników przez chatbota, może kosztować OpenAI ponad 700 tys. dolarów dziennie – twierdzi The Information .
Firma Microsoft , która nieoficjalnie miała zainwestować w twórcę chatbota 10 mld dolarów, ma szukać sposobów, by obsługa sztucznej inteligencji nie generowała tak wysokich kosztów. W tajemnicy ma budować chip AI, by obniżyć koszty – podaje serwis.
Powodem tak wysokich kosztów ma być infrastruktura konieczna do utrzymania i obsługi chatbota, a dzienną stawkę wyliczył Dylan Patel, główny analityk w firmie badawczej SemiAnalysis, zajmującej się półprzewodnikami. Obecnie model GPT-4 może generować jeszcze wyższe koszty, ponieważ analityk swoje obliczenia opierał na modelu GPT-3, który potrzebował mniejszej mocy obliczeniowej.
Jeden z cytowanych ekspertów w rozmowie z CNBC - Nick Walton, dyrektor generalny Latitude, startupu stojącego za grą AI – zwrócił uwagę, że uruchomienie modelu AI nie jest wcale tak tanią sprawą, jak mogłoby się wydawać: najpierw firmę kosztowało to 200 tys. dolarów miesięcznie (kiedy korzystała z serwerów AWS), a następnie zmieniła dostawcę, co pozwoliło na zredukowanie kosztów do 100 tys. dolarów miesięcznie.
Cytowany przez serwis, zwraca uwagę, że w firmie żartem było iż koszt pracowników „ludzkich” i pracowników AI był niemal taki sam. „Wydaliśmy setki tysięcy dolarów miesięcznie na sztuczną inteligencję. Nie jesteśmy dużym startupem, więc był to bardzo ogromny koszt” – skomentował Nick Walton.
To rzuca nowe światło na twierdzenia, że AI wyprze człowieka z rynku pracy, bowiem w tych dyskusjach brakuje zwykle elementu ekonomicznego i faktu, że korzystanie z rozwiązań sztucznej inteligencji na co dzień nie jest przecież darmowe (choć w tej chwili firmy AI większość kosztów wzięły na siebie, to wyższe wersje subskrybcji modeli są już płatne).
Czytaj też
Microsoft pracuje nad chipem AI?
Według The Information, Microsoft by obniżyć koszty uruchamiania generatywnych modeli AI ma pracować nad chipem sztucznej inteligencji o nazwie Athena.
Pomysł na własny chip miał wynikać z faktu, że gigant tech zdał sobie sprawę, że pozostaje w tyle za Google i Amazonem w wysiłkach na rzecz budowy własnych układów scalonych. Dodatkowo firma miała szukać tańszej alternatywy niż kosztowne chipy Nvidii. W związku z tym zdecydowano sie zbudować własne. Cztery lata później ponad 300 pracowników tego Big Techu ma pracować nad własnym chipem, który miałby zostać wypuszczony do użytku wewnętrznego przez Microsoft i OpenAI w przyszłym roku. Na razie jednak firma nie skomentowała sprawy.
Czytaj też
/NB
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].