Technologie
Meta publikuje model AI uczący się na błędach
Jednym z rosnących problemów związanych ze sztuczną inteligencją jest weryfikacja wygenerowanych przez nią treści. W odpowiedzi Meta przygotowała i opublikowała kilka modeli, które mają za zadanie rozpoznawać materiały tego typu w sieci.
Błyskawiczny rozwój sztucznej inteligencji w ostatnich latach spowodował pojawienie się wielu wątpliwości co do odróżnienia produkowanych przezeń treści od materiałów stworzonych przez ludzi. Prowadzone są również specjalne kampanie, uwypuklające najbardziej charakterystyczne cechy obrazów powstałych przy pomocy AI.
Mimo to, wiele osób daje się bowiem nabrać na fotografie teoretycznie uznawane za realne, podczas gdy w rzeczywistości jest zupełnie inaczej. Przypomnijmy, że platformy są zobligowane do oznaczania materiałów wytworzonych w ten sposób – w marcu taki wymóg postawiła Komisja Europejska, zaś w maju pojawiła się podobna propozycja w przypadku Stanów Zjednoczonych.
Czytaj też
AI oceni AI. Może uczynić ją „nadludzką”
Tymczasem Meta postanowiła pójść o krok dalej. Jak informuje Reuters, w piątek 18 października właściciel Facebooka poinformował o publikacji modelu AI, który uczył się na błędach popełnionych przez inne modele sztucznej inteligencji. Znalazł się w gronie kilku innych, wypuszczonych tego samego dnia.
Co w tym takiego nietypowego? Otóż do wytrenowania AI w celu kontroli treści stworzonych przez AI, Meta postanowiła skorzystać wyłącznie z materiałów z tej drugiej kategorii: wszystkie materiały do treningu zostały utworzone przez sztuczną inteligencję. Tak powstały weryfikator nazwano „Self-Taught Evaluator” (z ang. samouczący się sędzia).
Kluczem ma być wykorzystanie techniki „chain of thought”. Umożliwia zwiększenie dokładności odpowiedzi danego modelu w przypadku złożonych tematów dzięki rozbiciu procesu na mniejsze i łatwiejsze dla AI kroki do wykonania.
Czytaj też
Samodzielna nauka obniży koszty?
O ile ocenianie AI przez AI może wydawać się nieco dziwne, tak zarówno twórcy jak i obserwatorzy wskazują na możliwość zmniejszenia w ten sposób kosztów. Sytuacja dowodzi bowiem, że modele mogłyby uczyć się wyłącznie na własnych błędach i stać się autonomicznymi AI inteligentnymi na tyle, aby „wykonywać szeroki zakres zadań bez ingerencji człowieka”. Obecnie za weryfikację tworów sztucznej inteligencji pod kątem faktów odpowiadają specjalne zespoły ludzi.
Według Jasona Westona z Meta, badacze sądzą, że wchodzenie AI na coraz wyższy poziom uczyni sztuczną inteligencję lepszą od przeciętnego człowieka. „Idea samouczenia i zdolności do samooceny jest w zasadzie kluczowa dla idei osiągnięcia tego rodzaju nadludzkiego poziomu sztucznej inteligencji” – powiedział w wypowiedzi cytowanej przez Reutersa.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany