Świat nie jest gotowy na powszechnie dostępne modele sztucznej inteligencji rozpoznające twarze, a takie możliwości ma nowy GPT-4. Ich udostępnienie zostało wstrzymane z powodu ochrony prywatności - twierdzi firma Samuela Altmana OpenAI.
Nowy model sztucznej inteligencji opracowany przez firmę OpenAI - GPT-4 - ma zdolność rozpoznawania twarzy osób na podstawie wgrywanych do niego zdjęć. Dostęp publiczny do tych funkcji jednak został ograniczony ze względu na obawy dotyczące prywatności - donoszą amerykańskie media .
Firma stojąca m.in. za słynnym ChatemGPT już wcześniej chwaliła się, że jego następca - jeszcze lepszy duży model językowy potrafiący dokładniej niż poprzednik imitować wypowiedzi człowieka i odpowiadać na pytania - lepiej łącząc fakty z rzeczywistością - będzie prawdziwie multimodalny. Oznacza to, że oprócz możliwości pracy z tekstem, model potrafi analizować i interpretować obrazy - to coś, czego wcześniejsza wersja ChatuGPT nie umiała.
Co widzi sztuczna inteligencja?
Przetwarzanie obrazu w GPT-4 na skalę umożliwiającą rozpoznawanie twarzy stało się możliwe dzięki współpracy OpenAI z firmą BeMyEyes, która rozwija aplikację służącą do dokładnego opisu tego, co przedstawiają obrazy - również te w świecie rzeczywistym, osobom niewidomym.
BeMyEyes można np. wykorzystywać w pokoju hotelowym, gdzie aplikacja powie użytkownikowi dokładnie, w którym miejscu znajdują się konkretne przedmioty. Program potrafi też interpretować to, co przedstawiają zdjęcia i grafiki w mediach społecznościowych czy na stronach internetowych.
Aplikacja do pewnego momentu potrafiła również rozpoznawać twarze - właśnie dzięki współpracy z OpenAI. Niedawno jednak funkcja ta została zablokowana ze względu na ochronę prywatności . Obecnie rozpoznawanie twarzy możliwe jest tylko w przypadku osób publicznych, które np. mają swoją stronę na Wikipedii, ale nie w odniesieniu do osób prywatnych, których zdjęcia można znaleźć w otwartych źródłach takich, jak Facebook czy inne media społecznościowe.
OpenAI obawia się, że szersze udostępnienie tej funkcji spowoduje lawinę problemów prawnych w Europie (ze względu na RODO), jak i w stanach USA, gdzie wprowadzono restrykcyjne, lokalne regulacje ochrony prywatności (np. stan Illinois). W jurysdykcjach tych wykorzystanie informacji biometrycznych w usługach cyfrowych wymaga jasno wyrażonej, świadomej zgody osób, których dotyczą dane.
Obawy o dokładność
Firma Sama Altmana ma również obawiać się, że sztuczna inteligencja z BeMyEyes nie będzie działała idealnie - jak każdy model, może się mylić i popełniać błędy .
Przykładowo, może źle przypisywać rozpoznawanym twarzom płeć, stan emocjonalny, lub inne cechy, a takie rezultaty mogą przekładać się na realne problemy użytkowników. Model może też konfabulować i źle przypisywać tożsamość do "widzianych" osób. Firma deklaruje, że chce rozwiązać te problemy przed udostępnieniem modelu analizującego obrazy publicznie.
Wielkie testowanie
Dobrze działających modeli nie będzie jednak bez zaawansowanych testów - a takie prowadzi obecnie firma Microsoft wspierająca OpenAI inwestycjami, w wysokości ok. 10 mld dolarów.
Obecnie wyszukiwarka Bing tej firmy wzbogaciła się o narzędzie do analizy wizualnej, które dostępne jest w czatbocie zintegrowanym z wyszukiwarką i opiera się na technologii GPT-4. Testy póki co objęły np. rozpoznawanie obrazów w ramach mechanizmu CAPTCHA.
Podobne rozwiązania testuje Google, a są one dostępne w czatbocie Bard (którego polską premierę opisywaliśmy kilka dni temu tutaj ). Bard pozwala użytkownikom na wgranie do systemu zdjęć, które mają być przeanalizowane i np. rozpoznaje zawarte na nich obiekty.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].