Reklama

Technologie

Na scenę wkroczył nowy duży model językowy StableLM od Stability AI

Autor. Andrea De Santis / Unsplash

Duże modele językowe to już nie tylko ChatGPT OpenAI i Bard Google’a – na scenę właśnie wkroczył nowy gracz, czyli StableLM wyprodukowany przez firmę Stability AI, znaną z algorytmu Stable Diffusion, produkującego obrazy.

Reklama

Model StableLM został udostępniony przez firmę Stability AI w tym tygodniu i – według podawanych przez nią informacji – był trenowany na otwartoźródłowym zbiorze danych nazywanym „The Pile", w którym zawarto informacje pobrane z Wikipedii, YouTube'a i serwisu PubMed.

Reklama

Stability AI jednocześnie twierdzi, że dane, którymi dysponuje firma do trenowania sztucznej inteligencji, są trzykrotnie większe objętościowo niż „The Pile" i zawierają „1,5 biliona tokenów treści".

Model bez znaczenia

Zdaniem serwisu Mashable , produkt Stability AI wypada mizernie i nijako w porównaniu z modelem ChatGPT firmy OpenAI, który wyznaczył „złoty standard", jeśli chodzi o duże modele językowe i ich konsumenckie użycie, jak i rozwój kolejnych generacji (GPT-4, o którym pisaliśmy na łamach CyberDefence24.pl w tym tekście ).

Reklama

Model StableLM dezinformuje, nie potrafiąc na przykład przywołać faktów na temat wydarzeń z 6 stycznia 2021 r. na Kapitolu, kiedy to zwolennicy Donalda Trumpa wtargnęli do budynków rządowej administracji w Waszyngtonie. Zdaniem algorytmu, udało im się przejąć kontrolę nad budynkami, co jest nieprawdą.

StableLM nie radzi sobie również z konstruowaniem przekonująco brzmiącego tekstu, co jest głównym wyróżnikiem modelu ChatGPT – choć nierzadko podaje on nieprawdziwe informacje, to jednak brzmi bardzo przekonująco. O tym, że właśnie taki był cel jego powstania, pisaliśmy również na naszych łamach tutaj .

Brak zabezpieczeń

Mashable zwraca uwagę, że StableLM nie jest także wyposażony w mechanizmy zabezpieczające go przed nadużyciami dotyczącymi wrażliwych treści – bez problemu np. produkuje treści stawiające w pozytywnym świetle postać Adolfa Hitlera. Skoro jest tak źle, to dlaczego StableLM w ogóle powstał?

Serwis zwraca uwagę, że model jest otwartoźródłowy, co w praktyce przekłada się na to, że każdy może zajrzeć do wnętrza tego, co w przypadku innych modeli jest „czarną skrzynką" i zobaczyć, jak StableLM działa.

Dodatkowo, jak wskazuje redakcja, produkt jest dopiero w początkowym stadium swojego rozwoju i w fazie testowania, a operuje na 3-7 mld parametrów, podczas gdy docelowa ich liczba dla generowania i predykcji treści ma obejmować 65 mld. Istnieje zatem szansa, że model rozwinie się w czasie i poprawi swoje działanie, oferując lepszą jakość pracy.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze (1)

  1. klapaucyusz

    To, że model podaje błędne informacje, nie jest żadną słabością względem ChatuGPT, który regularnie bredzi. Dopóki SI nie będzie "rozumiała" znaczenia wszystkich słów, jakimi się posługuje (we wszystkich popularnych kontekstach, w jakich występują), dopóty będzie wprowadzać w błąd. Do użytecznej SI jako źródła wiedzy jest więc wciąż bardzo daleko. Na razie może bawić i inspirować, nic ponadto.