Technologie
Sora od OpenAI. AI wygeneruje wideo na podstawie tekstu
Tekstowe instrukcje pozwolą stworzyć film wygenerowany przez sztuczną inteligencję. Co dokładnie potrafi Sora i gdzie wymaga największych poprawek?
Firma zarządzana przez Sama Altmana chwali się stworzeniem narzędzia, które na podstawie odpowiednich promptów będzie w stanie w minutę wygenerować wysokiej jakości wideo. To otwarcie nowego, ekscytującego rozdziału, który poza wielkimi możliwościami, kryje za sobą szereg zagrożeń.
Czytaj też
Prompt: “A stylish woman walks down a Tokyo street filled with warm glowing neon and animated city signage. she wears a black leather jacket, a long red dress, and black boots, and carries a black purse. she wears sunglasses and red lipstick. she walks confidently and casually.… pic.twitter.com/cjIdgYFaWq
— OpenAI (@OpenAI) February 15, 2024
Sora i jej opcje
Jak czytamy na stronie OpenAI, Sora potrafi wygenerować złożone sceny, w których występuje wiele postaci. Mowa tu zarówno o obiektach na pierwszym planie, jak i o tle. W jednym i drugim przypadku charakteryzują się uwzględnieniem szczegółów.
Nowość od twórców ChatuGPT ma cechować się głębokim zrozumieniem językowym, a to z kolei przekładać na dokładną interpretację promptów.
Sora ma mieć możliwość wykreować wiele ujęć w ramach jednego wygenerowanego wcześniej wideo – wszystko przy zachowaniu szczegółów stworzonych uprzednio postaci i obiektów.
To nie wszystko. Okazuje się, że Sora potrafi wygenerować film nie tylko na podstawie tekstu. Posiada też możliwość zrobienia tego, korzystając z danej grafiki czy też filmu, do którego może dorobić kontynuację lub brakującą scenę.
Introducing Sora, our text-to-video model.
— OpenAI (@OpenAI) February 15, 2024
Sora can create videos of up to 60 seconds featuring highly detailed scenes, complex camera motion, and multiple characters with vibrant emotions. https://t.co/7j2JN27M3W
Prompt: “Beautiful, snowy… pic.twitter.com/ruTEWn87vf
Czytaj też
Nie pozbawione wad
Firma nie ukrywa, że produkt ma wady. Na oficjalnej stronie OpenAI przedstawiono co najmniej dwa minusy Sory. Jak czytamy, może mieć problem z dokładnym odwzorowaniem fizyki danej sceny i rozumieniem związków przyczynowo skutkowych. Przy opisaniu tej drugiej wady podany jest przykład wideo z człowiekiem jedzącym ciastko – po jego ugryzieniu, pozostaje ono… nietknięte.
Kolejnym kłopotem, z którym mierzą się twórcy nowego narzędzia jest mylenie przez niego pewnych przestrzennych detali i np. nie odróżnianie prawej od lewej.
Czytaj też
Co z bezpieczeństwem?
OpenAI w materiale na temat Sory wspomina również o kwestiach bezpieczeństwa. Narzędzie ma być udoskonalane dzięki współpracy z red teamami. Swój wkład w jego rozwój mają też mieć eksperci zajmujący się dezinformacją czy walką z nienawiścią w sieci.
https://t.co/rmk9zI0oqO pic.twitter.com/WanFKOzdIw
— Sam Altman (@sama) February 15, 2024
Firma chce też postawić na instrumenty pozwalające sprawdzić klatki każdego generowanego filmu. Celem jest zweryfikowanie materiału z zasadami użytkowania jeszcze przed tym, kiedy wideo zostanie wyświetlone użytkownikowi.
OpenAI na koniec umieściło też zastrzeżenie, że nie jest w stanie do końca przewidzieć, w jaki sposób Sora może być wykorzystywana przez użytkowników.
„Będziemy angażować osoby odpowiedzialne za tworzenie prawa, artystów czy edukatorów do tego, aby lepiej zrozumieć ich obawy i zidentyfikować pozytywne przykłady użycia tej technologii” – czytamy.
Na koniec pytanie dotyczące tego, kto będzie mógł korzystać z rozwiązania o nazwie Sora. Firma wskazuje, że na razie dostęp do niej zyskali niektórzy graficy, artyści oraz twórcy wideo. Zobaczymy, kiedy narzędzie trafi do szerszego grona użytkowników.
/MG
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].