Meta Movie Gen: Technologia AI do tworzenia wideo i dźwięku z tekstu, ale dostępność nadal ograniczona
Kluczowe spostrzeżenia
- Firma Meta wprowadziła przełomowy model sztucznej inteligencji o nazwie Movie Gen, który tworzy filmy na podstawie komunikatów tekstowych. Model ten ma przypominać możliwości, jakich można się spodziewać po nadchodzącym modelu Sora firmy OpenAI.
- Oprócz tworzenia filmów, funkcje Movie Gen obejmują także przekształcanie zdjęć w treści wideo, stosowanie edycji tekstowej do klipów i generowanie dźwięku towarzyszącego filmom.
- Aplikacja Movie Gen jest obecnie w fazie rozwoju, ale nie ogłoszono jeszcze konkretnego terminu jej publicznej premiery.
Meta Movie Gen prezentuje imponujący skok w technologii AI. Po prostu wprowadzając tekst, użytkownicy mogą tworzyć krótkie klipy wideo, modyfikować istniejące klipy, konwertować obrazy na filmy, a nawet generować dźwięk — zasadniczo kompleksowy pakiet dla twórców treści.
Podobnie jak inne powstające systemy text-to-video, takie jak Sora firmy OpenAI, Movie Gen nie jest jeszcze dostępny do użytku , a wszystkie obecne demonstracje dotyczą przyszłych możliwości. Podstawowa koncepcja pozostaje spójna: wprowadzanie tekstu w celu tworzenia oszałamiających filmów w wysokiej rozdzielczości.
Co więcej, użytkownicy będą mieli możliwość generowania filmów w różnych proporcjach obrazu.
Kolejnym godnym uwagi aspektem Movie Gen jest funkcja edycji wideo , która umożliwia użytkownikom przesyłanie nagrań i manipulowanie nimi za pomocą monitów, co pozwala na wprowadzanie dostosowanych edycji, stosowanie stylów, przejść i ulepszanie klipów za pomocą funkcji obsługiwanych przez sztuczną inteligencję.
Szczególnie imponującą cechą Movie Gen jest możliwość tworzenia „ spersonalizowanych filmów ”, które wykorzystują zdjęcia do generowania filmów, przy jednoczesnym zachowaniu indywidualnej tożsamości i ekspresji.
Model ten ma również możliwość generowania dźwięku do filmów, niezależnie od tego, czy pochodzą z podpowiedzi tekstowych, czy nie, przez okres do 45 sekund. Dźwięk ten może obejmować efekty dźwiękowe, muzykę instrumentalną i dźwięki otoczenia, wszystkie zsynchronizowane z odtwarzaniem wideo. Podejście do rozszerzenia audio jest wykorzystywane w celu zapewnienia płynnej spójności między komponentami audio i wideo.
Meta twierdzi , że model „ma potencjał zwiększenia kreatywności”, choć przyznaje, że „nie jest gotowy do wprowadzenia na rynek w najbliższym czasie — jego generowanie jest nadal kosztowne i powolne. Chcemy jednak podzielić się naszymi postępami, ponieważ wyniki są naprawdę niezwykłe”. Podczas gdy technologia generowania wideo AI wciąż ewoluuje, Movie Gen pozycjonuje Meta na arenie konkurencyjnej obok OpenAI i Google, z których oba badają własne modele tekst-wideo.
Szybki postęp generowania wideo AI budzi obawy o potencjalne niewłaściwe wykorzystanie, jak zaobserwowano w przypadku obrazów generowanych przez AI, co zwiększa prawdopodobieństwo zagrożenia karier filmowców i artystów wideo. Pojawienie się na rynku filmów całkowicie generowanych przez AI może nie być odległe. Niemniej jednak technologia ta jest nadal w fazie rozwoju, a Meta nie oferuje żadnych przewidywanych dat premiery, chociaż debiut przed końcem przyszłego roku wydaje się mało prawdopodobny.
Dodaj komentarz