Technologie
PLLuM - asystent czy baza wiedzy?

Autor. CyberDefence24
Po publikacji modelu PLLuM możliwość jego przetestowania otrzymali wszyscy Polacy. Podczas naszego testu po konferencji zwróciliśmy uwagę, że model ma problemy z podawaniem faktów historycznych. Jak przekazał nam kierownik projektu Maciej Piasecki, każdy może go „dotrenować”.
W poniedziałek 24 lutego br. Ministerstwo Cyfryzacji wraz z konsorcjum podmiotów badawczo-naukowych zaprezentowało polski model językowy PLLuM. Wicepremier i minister cyfryzacji Krzysztof Gawkowski oraz wiceszef resortu Dariusz Standerski ogłosili również powstanie konsorcjum HIVE, które ma rozwijać polskie modele językowe.
Administracja kontra faktografia
Bezpośrednio po konferencji rozpoczęło się testowanie udostępnionych modeli. Dziennikarze mogli wypróbować asystenta PLLuM bezpośrednio na miejscu, w budynku Ministerstwa Cyfryzacji. Skorzystaliśmy z tej możliwości.
Zapytany przez nas model 8x7B nie miał żadnych problemów z podaniem informacji, do kogo w samorządzie należy zwrócić się w przypadku chęci zgłoszenia problemu z zanieczyszczeniem ulic. Problem pojawił się jednak przy kwestiach historycznych przy specyficznie sformułowanym pytaniu. Przykładowo, według PLLuM, inwazja Iraku na Kuwejt miała miejsce 20 sierpnia 1990 roku, gdy tak naprawdę miała miejsce na początku miesiąca.
PLLuM może dotrenować każdy
Jak jednak zaznaczył w rozmowie z nami Maciej Piasecki, kierownik projektu PLLuM, modele są mniej zaawansowane, jeżeli chodzi o kwestie związane z podawaniem faktów. Zostały bowiem stworzone przede wszystkim jako asystenci związani z administracją publiczną, a nie jako drugi ChatGPT, o czym mówiono już w marcu zeszłego roku. Zaznaczył wyraźnie, że PLLuM jest otwarty i każdy może dotrenować model o specjalistyczną wiedzę.
„Najprostszą ścieżką w takim przypadku jest po prostu zgromadzenie tekstów, które są reprezentatywne dla danej dziedziny. Można w tym momencie kontynuować jego trening. Z naszego doświadczenia wiem, że to nie jest rozwiązanie, które zawsze gwarantuje sukces. Bardzo ważne są te etapy budowy zbiorów instrukcji” – wyjaśnił Piasecki w rozmowie z CyberDefence24.
Koordynator projektu zaznaczył jednocześnie, że jeżeli ktoś chciałby „zrobić różnicę” w kontekście wiedzy posiadanej przez model, to mowa o „dziesiątkach milionów” źródeł pierwotnych.
„Na model bardzo wpływa dołożenie nowych instrukcji, czy też preferencji pokazujących, jakiego rodzaju zachowań od niego oczekujemy. Tutaj już widać różnicę w jego działaniu” – dodał Maciej Piasecki.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:[email protected].
Sztuczna inteligencja w Twoim banku. Gdzie ją spotkasz?
Materiał sponsorowany