Kredyty obrazkowe: pas startowy
pas startowystartup AI, który pomógł opracować Stable Diffusion, generator obrazów AI, uruchomił swój pierwszy Aplikacja mobilna Wczoraj, aby dać użytkownikom dostęp do Gen-1, jej modelu sztucznej inteligencji wideo-wideo. Aplikacja jest obecnie dostępna tylko na urządzeniach z systemem iOS.
Dzięki nowej aplikacji użytkownicy będą mogli nagrywać wideo ze swojego telefonu i tworzyć wideo AI w ciągu kilku minut. Mogą również konwertować dowolne wideo, które mają w swojej bibliotece, za pomocą monitów tekstowych, obrazów lub ustawień stylów.
Użytkownicy mogą wybierać z menu Runway ustawień wstępnych, takich jak „Cloudscape”, lub przekształcać swoje wideo, aby wyglądało jak rysunek z gliny, rysunek węglem, akwarela, papier origami i nie tylko. Możesz także przesłać zdjęcie lub napisać pomysł w polu tekstowym.
Aplikacja wygeneruje następnie cztery podglądy do wyboru. Po wybraniu produktu, który najbardziej Ci się podoba, wyprodukowanie produktu końcowego zajmie kilka minut. Sami przetestowaliśmy aplikację i stwierdziliśmy, że zajęło to około 60 sekund lub więcej. Czasami tworzenie trwa 2 minuty.
Oczywiście, jak w przypadku każdego generatora AI, wyniki nie są idealne i często wyglądają na zniekształcone lub dziwnie wyglądające. Ogólnie rzecz biorąc, koncepcja generatorów wideo AI może wydawać się głupia, a może nawet sztuczna. Ale łatwo jest zobaczyć, jak fajne może to być, ponieważ technologia ewoluuje w czasie.
Meta i Google uruchomiły generatory zamiany tekstu na wideo, odpowiednio o nazwach Make-A-Video i Imagen.
Niezależnie od tego stwierdziliśmy, że aplikacja mobilna Runway jest łatwa w użyciu i ogólnie przyjemna w majsterkowaniu.
Oto jeden przykład, który wymyśliliśmy Klip autorstwa Michaela Scotta z filmu „Biuro”. Wprowadzony przez nas monit tekstowy był „realistycznym manekinem”.
(Ostrzeżenie: wynik jest przerażający.)
Wypróbowaliśmy także „Animację 3D”, która okazała się w porządku.
Z pewnością istnieją inne zastrzeżenia oprócz usterek i zniekształconych twarzy.
Jeśli użytkownicy chcą darmowej wersji, istnieje limit 525 kredytów i mogą przesyłać tylko pięciosekundowe filmy. Każda sekunda filmu wykorzystuje 14 punktów.
Współzałożyciel i dyrektor generalny Cristobal Valenzuela powiedział TechCrunch, że w przyszłości Runway planuje dodać obsługę długich filmów. Dodał, że aplikacja będzie nadal ulepszana i wprowadzać nowe funkcje.
„Koncentrujemy się na poprawie wydajności, jakości i kontroli. W nadchodzących tygodniach i miesiącach zobaczysz wszelkiego rodzaju aktualizacje, od dłuższych materiałów dostarczanych po filmy o wyższej jakości” – powiedział Valenzuela.
Pamiętaj też, że aplikacja nie przedstawia nagości ani prac chronionych prawami autorskimi, więc nie możesz tworzyć filmów naśladujących styl popularnego adresu IP.
Nowa aplikacja mobilna Runway ma dwa plany premium: Standard (143,99 USD rocznie) i Pro (344,99 USD rocznie). Plan Standard zapewnia 625 kredytów miesięcznie i inne funkcje premium, takie jak wideo 1080p, nieograniczona liczba projektów i nie tylko. Plan Pro oferuje 2250 punktów kredytowych miesięcznie i wszystkie ponad 30 narzędzi Runway.
Miesiąc po tym, jak Runway wypuścił swoją wersję Gen-1 – która została uruchomiona w lutym – Runway wydał swoją wersję Gen 2 Model. Prawdopodobnie krok naprzód w stosunku do modeli zamiany tekstu na obraz, Stable Diffusion i DALL-E, Gen-2 jest twórcą zamiany tekstu na wideo, dzięki czemu użytkownicy mogą tworzyć filmy od podstaw.
Valenzuela powiedział nam, że Runway powoli zaczyna udostępniać dostęp do zamkniętej bety dla drugiej generacji.
Aplikacja obsługuje obecnie Gen-1, jednak wkrótce Gen-2 będzie dostępna wraz z innymi narzędziami sztucznej inteligencji Runway, takimi jak generator obrazu do obrazu.
Runway opracował kilka programów do edycji wideo opartych na sztucznej inteligencji od czasu ich wprowadzenia na rynek w 2018 roku. Firma posiada w sobie wiele różnych narzędzi. Internetowy edytor wideotakich jak interpolacja klatek, usuwanie tła, efekty rozmycia, funkcja, która między innymi czyści lub usuwa dźwięk i śledzenie ruchu.
Narzędzia te pomogły twórcom treści, a nawet studiom filmowym/telewizyjnym skrócić czas poświęcany na edytowanie i tworzenie filmów.
Na przykład plik Zespół efektów wizualnych Twórcy filmu „Everything Everywhere at Once” wykorzystali technologię Runway do stworzenia sceny w filmie, w której Evelyn (Michelle Yeoh) i Joy (Stephanie Hsu) znajdują się w multiwersie, w którym zostały zamienione w ruchome skały.
Ponadto zespół grafików odpowiedzialny za program CBS „The Late Show with Stephen Colbert” wykorzystał Runway, aby skrócić czas montażu do zaledwie pięciu minut, Według dyrektora technicznego Andrew Bonety.
Runway prowadzi również Runway Studios, dział rozrywki i produkcji.